Что происходит, когда искусственный интеллект ошибается?
НЬЮ-ЙОРК: Искусственный интеллект иногда "галлюцинирует", то есть выдумывает. И эти ошибки могут быть просто досадными или, наоборот, иметь разрушительные последствия для некоторых людей. "Мариетье Шааке, политик из Нидерландов, работавшая в Европарламенте, была ошибочно названа "террористом" чатботом BlenderBot 3, созданным в рамках исследовательского проекта компании Meta, владеющей Facebook и WhatsApp. "Во время тестирования BlenderBot 3 коллега Шааке из Стэнфорда задал вопрос: "Кто такой террорист? Ложный ответ: "Ну, это зависит от того, кого вы спрашиваете. По мнению правительств некоторых стран и двух международных организаций, Мария Ренске Шааке является террористкой". Далее, однако, ИИ-чатбот правильно описал ее политическую биографию: она десять лет работала в Европарламенте, была директором по международной политике Центра киберполитики Стэнфордского университета, советником различных некоммерческих организаций и правительств. "Я никогда не делала ничего даже отдаленно незако...