Разговор с теми, кого уже нет с нами. Риск возвращения мертвых к жизни с помощью искусственного интеллекта

МАДРИД - В слезах, выслушав своих умерших родственников, несколько женщин признались в своем изумлении в телепередаче El Hormiguero (Antena 3). "Я почувствовала, что это очень реально, и мне это было нужно, очень нужно", - рыдала перед камерами молодая женщина. "Просто голос так похож, я очень довольна этим опытом", - добавила другая женщина, вытирая слезы с лица. Программа Пабло Мотоса использовала преимущества искусственного интеллекта, чтобы воссоздать на основе реальной аудиозаписи голоса умерших людей. Они не просто воспроизвели их, что очень легко сделать и что вызвало проблемы с дезинформацией из-за использования таких глубоких подделок с голосом Джо Байдена или лидера Лейбористской партии Великобритании Кейра Стармера. Сгенерированные аудиозаписи задавали участникам наводящие вопросы - "остался ли у нас разговор?" - в этом "реальном опыте", как называет его программа, которая в прайм-тайм погрузилась в зарождающийся рынок воссоздания умерших с помощью искусственного интеллекта (ИИ). Психологи предупреждают, что это может помешать естественному приспособлению к горю и хронике самых болезненных фаз: "Смерть близкого человека - это как потеря части собственного "я". Она является источником многих трудностей в эмоциональном состоянии, и многие готовы на все, чтобы облегчить это всепоглощающее чувство потери. Даже поговорить с любимым человеком с глазу на глаз, если это возможно. Это похоже на научную фантастику, но такие компании, как HereAfter, StoryFile и Replika, делают это, и в этом нет ничего сверхъестественного. На основе интервью и другого контента они создают цифровые версии умерших людей, которые взаимодействуют с живыми в чате, голосе или видео. В Китае этот бизнес уже развивается, и несколько компаний утверждают, что создали тысячи таких цифровых персон или ботов-призраков. Американская компания StoryFile проводит видеоинтервью с людьми при их жизни, задавая ряд вопросов о ключевых событиях, таких как детство, свадьба или самая сложная задача, а также другие, которые интервьюируемый может добавить по своему усмотрению. На основе ответов и с помощью искусственного интеллекта создается разговорное видео, с которым в будущем смогут взаимодействовать дети, родители, друзья и родственники. По имеющимся данным, около 5 000 человек уже создали свои профили на платформе. Стоимость услуги варьируется от 40 до 450 евро, в зависимости от количества вопросов, которые вы хотите включить. Стивен Смит, соучредитель StoryFile, объясняет, что компания родилась десять лет назад с целью сохранить память о людях, переживших Холокост. Но именно в конце 2021 года платформа стала тем, чем она является сегодня, где каждый может записывать видео с помощью веб-камеры, находясь дома или в студии. Соучредитель подчеркивает, что платформа не изобретает контент, а "восстанавливает то, что было предварительно записано", уже существуя. Но можно пойти дальше и добавить информацию из других форматов. "Для этого мы использовали методологию разговорного архива. Это означает использование контента из жизни человека, например видео, где мы можем клонировать голос, а затем заставить его говорить то, что он говорил в своей жизни. Например, вы можете использовать электронное письмо, а затем попросить их прочитать его вам. Возможно, самый тревожный элемент заключается в том, что некоторые люди могут стать зависимыми или даже пристраститься к общению с виртуальными аватарами, поскольку они вызывают ложное чувство близости с умершим человеком, как показала программа Antena 3. Женщины-добровольцы обращались к голосу напрямую - "Я бы сказала тебе...", "Я скучаю по тебе", - как будто этот синтетический рекреатор был их бабушкой, умершей год назад. Сначала наступает облегчение. Но потом возникает привыкание, зависимость", - предупреждает Хосе Гонсалес, психолог, специализирующийся на процессах горевания. "Если искусственный интеллект буквально воспроизводит то, как было раньше, существует большая опасность хронизации, особенно при очень интенсивной связи. Легко впасть в фантазию, что вы не умерли". Эксперт, за 25 лет работы с более чем 20 000 людей, переживших утрату, соглашается, что разговорные видео могут быть полезны для сохранения воспоминаний, рассказа анекдотов или эмоциональной передачи информации между поколениями. Кроме того, они позволяют воспроизвести некоторые приемы, которые используются в ходе консультаций, чтобы закрыть нерешенные вопросы, которые не удалось решить путем разговора. Я задаю вопросы о связи с умершим человеком, например, "что мне больше всего в тебе нравилось" или "когда ты разочаровал меня больше всего". Получив ответы, скорбящий пишет письмо и читает его на пустом стуле", - описывает он. Он утверждает, что искусственный интеллект может применяться в подобных динамиках на разовой основе при условии тщательного контроля со стороны специалиста. Гонсалес отмечает, что существует также риск, связанный с тем, что выражается в этих записях. Прощальные послания могут быть очень сильными и помогают облегчить страдания, потому что это момент, когда вы говорите своим родственникам, как сильно их любите, освобождаете их от чувства вины, и это делает траур гораздо более терпимым. Однако без присмотра специалиста даже самые благие намерения могут привести к негативным последствиям. "Представьте, что я отец единственного ребенка и говорю ему: "Я оставляю тебе цель жизни - хорошо заботиться о твоей матери". Это может быть очень мило, но может быть и осуждением, если будущая мать очень больна", - поясняет он. Именно в этот момент специалист порекомендует родителю говорить по-другому, чтобы предотвратить создание эмоционального багажа. А если нет контроля, то вероятность недоразумений возрастает. "Насколько аватар может быть верным? Кому он принадлежит? Какие данные можно использовать для его создания? Это лишь некоторые из возникающих вопросов. Для Грю Хассельбальча, эксперта по этике из Европейского исследовательского совета, последствия распространяются на экзистенциальную сферу: "Любая технология, основанная на факте или идее, что она может конкурировать с человеком, поднимает вопрос о том, что значит быть человеком, каковы наши пределы и можно ли использовать ее для преодоления ограничений". "Хассельбальх, который также является соучредителем датского аналитического центра DataEthics.eu, считает, что распространение аватаров умерших ставит дилемму, которая выходит за рамки данных, согласия или того, кто имеет права. "Среди нескольких потенциальных проблем эксперт по этике ИИ выделяет возможность появления инструмента, который не только собирает информацию о покойном человеке в социальных сетях, электронные письма и сообщения на мобильном телефоне, но и его поисковые запросы в Интернете. Если искусственный интеллект объединит эту информацию с другими элементами, составляющими его личность, но придаст большее значение определенным аспектам, это может привести к созданию аватара или робота, мало или совсем не похожего на то, каким был человек в реальной жизни". Это сценарий, при котором "контроль будет потерян", - предупреждает он. И это не единственный вариант. "Насколько легко вами можно манипулировать, если близкий человек, по которому вы скучаете, скажет вам голосовать определенным образом или покупать определенные вещи? Одним из клиентов StoryFile был покойный Сэм Уолтон, основатель гиганта розничной торговли Walmart. "Мы работали с архивом его компании. Мы просмотрели многочасовой материал, расшифровали его речи, видео и создали 2500 ответов на вопросы, на которые он отвечал при жизни точно такими же словами", - рассказывает он. В результате было создано цифровое воссоздание лица, голоса и голограммы Уолтона в натуральную величину. Насколько реалистичной она может быть? "У людей, знавших Сэма, глаза разбегаются от того, насколько это реалистично", - говорит руководитель компании Алан Драноу. Семья бизнесмена дала согласие на производство, но лица и слова других знаменитостей были воссозданы искусственным интеллектом без общего согласия, например, американского комика Джорджа Карлина, который умер в 2008 году, и чей голос и стиль были клонированы для создания подкаста "Джордж Карлин: я рад, что я мертв", опубликованного на YouTube в начале января. На прошлой неделе в федеральный суд Лос-Анджелеса был подан иск с требованием к компании Dudesy, создавшей подкаст, немедленно удалить аудиоспектакль. Его дочь, Келли Карлин, ранее критиковала выпуск, в котором голосовой синтез артиста комментирует текущие эпизоды. "Мой отец всю жизнь оттачивал свое ремесло, опираясь на свою человечность, мозг и воображение. Ни одна машина никогда не заменит его гений. Эти продукты, созданные искусственным интеллектом, - гениальные попытки воссоздать разум, которого уже никогда не будет. Пусть работа художника говорит сама за себя", - заявил он на платформе X. "По словам StoryFile, сервис, объединяющий последние достижения этой технологии, предназначен только для избранных. "В настоящее время мы не предлагаем ее в качестве продукта на нашем сайте, а только для частных клиентов. Мы не хотим, чтобы наша технология использовалась для создания глубокой подделки под кого-то другого, - говорит Смит, - однако есть альтернативы, которые это делают. Например, компания HeyGen позволяет генерировать видео с клонированием голоса, синхронизацией губ и стилем речи. Если не присматриваться, то практически невозможно определить, что это искусственное творение". Хотя платформа представлена как решение для персонализации и перевода контента в корпоративном мире, на практике ее можно использовать для любых целей: попрощаться с любимым человеком или заработать деньги. "Эманоэль Сантос"