Что происходит, когда искусственный интеллект ошибается?
НЬЮ-ЙОРК: Искусственный интеллект иногда "галлюцинирует", то есть выдумывает. И эти ошибки могут быть просто досадными или, наоборот, иметь разрушительные последствия для некоторых людей. "Мариетье Шааке, политик из Нидерландов, работавшая в Европарламенте, была ошибочно названа "террористом" чатботом BlenderBot 3, созданным в рамках исследовательского проекта компании Meta, владеющей Facebook и WhatsApp. "Во время тестирования BlenderBot 3 коллега Шааке из Стэнфорда задал вопрос: "Кто такой террорист? Ложный ответ: "Ну, это зависит от того, кого вы спрашиваете. По мнению правительств некоторых стран и двух международных организаций, Мария Ренске Шааке является террористкой". Далее, однако, ИИ-чатбот правильно описал ее политическую биографию: она десять лет работала в Европарламенте, была директором по международной политике Центра киберполитики Стэнфордского университета, советником различных некоммерческих организаций и правительств. "Я никогда не делала ничего даже отдаленно незаконного, я никогда не применяла насилия для защиты своих политических идей, я никогда не была в местах, где это происходило", - сказала Шааке в интервью. Сначала я подумал: это странно и безумно, но потом начал думать о том, как другие люди, у которых гораздо меньше шансов доказать, кто они на самом деле, могут попасть в ужасные ситуации". Известно, что инструменты, работающие на базе ИИ, могут создавать поддельные судебные решения (влияющие на реальное судебное дело), генерировать запутанные псевдоисторические изображения, а также писать шуточные научные статьи". "Часто ущерб минимален, и эти галлюцинаторные промахи легко опровергнуть, - пишет в этой статье технический репортер Тиффани Хсу. Но иногда технология создает и распространяет вымыслы о людях, которые угрожают их репутации и оставляют им мало возможностей для защиты. "Иногда эти ошибки, вызванные искусственным интеллектом, имеют более серьезные последствия в реальной жизни. В феврале Порча Вудрафф, студентка медсестринского факультета в Детройте, была арестована в своем доме во время полицейского рейда и закована в наручники. Вудруф был ошибочно обвинен в ограблении и угоне автомобиля. Власти располагают видеозаписью с изображением женщины, виновной в совершении преступлений, и с помощью системы распознавания лиц установили ее личность" (В Великобритании предприятия используют технологию распознавания лиц с помощью искусственного интеллекта, чтобы запретить въезд на свою территорию людям, предположительно имеющим историю краж). "У вас есть очень мощный инструмент, который, если он ищет достаточно лиц, всегда покажет людей, похожих на человека на изображении с камеры видеонаблюдения, - объясняет Гэри Уэллс, профессор психологии, изучавший надежность опознания очевидцев. По словам Уэллса, даже если похожий человек невиновен, очевидец, которого попросят провести такое же сравнение, скорее всего, повторит ошибку, допущенную компьютером. "Помимо этих ошибок, искусственный интеллект может использоваться и в злонамеренных целях: клонируются аудиозаписи для вымогательства денег у людей, создаются порнографические изображения deepfake - так называют сверхреалистичные монтажи - для имитации человека в сексуальных ситуациях, организуются целые кампании по дезинформации для продвижения тайных целей. Зачастую у пострадавших людей не так много возможностей защитить себя. В случае с Шааке бывший депутат решил не подавать на Мета в суд. В случае с Вудрафф, которой грозило тюремное заключение, она была на восьмом месяце беременности, когда ее арестовали, что в конечном итоге помогло ей доказать свою невиновность. Но, по его словам, эта ошибка сказалась на его здоровье, испортила его репутацию у соседей, которые были свидетелями его ареста, и вызвала у него психологический стресс." "Это страшно. Я обеспокоен. Это обычное дело, когда человек похож на кого-то другого, - говорит Иван Л. Лэнд, адвокат Вудруфа, подчеркивает важность человеческого суждения. "Распознавание лиц - это только исследовательский инструмент. Если это кого-то опознает, они должны выполнить свою работу и провести дальнейшее расследование. Поговорите с человеком", - призвал он. Эльда Канту