Лоранс Девиллерс: "Вы вольны влюбляться во все, что хотите. Но если это машина, то это подделка".

Японец средних лет запечатлен спящим в своей постели. Голос из голограммы, проецируемой на прикроватную тумбочку, будит его с добрым утром. На рисунке - светло-голубоволосая женщина. Нажав кнопку, он начинает диалог. Машина предупреждает его о необходимости взять с собой зонтик и призывает не опаздывать на работу. Пока мужчина обедает в одиночестве в своем офисе, он переписывается с голограммой, которая просит его приехать домой пораньше. В автобусе он предупреждает, что скоро приедет домой. "Не могу дождаться встречи с тобой", - отвечает машина с искусственным интеллектом и включает в доме свет, чтобы поприветствовать своего хозяина. Когда мужчина переступает порог, первым делом он идет к ней. Они смотрят телевизор, и мужчина рассказывает ей о том, как приятно "иметь кого-то дома". Видео от компании Gatebox - один из примеров, показанных в четверг французским ученым Лоранс Девиллерс в ее презентации на Congreso Futuro, встрече ученых и гуманистов мирового уровня в Сантьяго, Чили. Девиллерс, профессор искусственного интеллекта и этики в Университете Сорбонны, занимается исследованиями аффективных вычислений уже 20 лет. В интервью после своего выступления в центре расширения Национального института она рассказывает о взаимоотношениях машин и человека. Вопрос. Японец на видео говорит, что ему приятно, когда дома кто-то есть, но на самом деле там никого нет... Ответ. Да, это полная иллюзия. Многие люди могут быть очень уязвимы для такого рода машин, потому что одиночество - это кошмар, особенно в конце жизни. Может быть, они составят нам компанию. Нелегко вести дискуссию о таких вещах, но я не думаю, что их нужно просто запретить. Если они делают вас счастливее, то почему бы и нет? Но нужно учитывать, куда попадают данные, полученные машиной, какие записи она собирает, с какой целью получает доступ к вашей информации... А еще то, что они являются своего рода зависимостью. Мы можем проводить слишком много времени, общаясь с этим, как вы говорите, "никем". Хотя это никто, это нечто, исходящее от вас, потому что вы разговариваете с машиной, которая учится на вашей истории, на ваших симпатиях и антипатиях...... Эта память о том, кто вы есть, имеет прекрасный способ манипулировать вами. В этом и заключается проблема. В. Как вы решаете эту проблему? О. Вы должны разработать стандарты для такого рода машин. Есть три вида очень важных измерений: первое - это закон с его красными линиями. Другой - помочь компаниям в отрасли создать систему, соответствующую закону. И третье - попытаться сделать этические принципы доступными для всех в обществе. В. Насколько сложно людям, использующим эти машины, спутать реальность с виртуальной реальностью? О. В большинстве случаев путаницы не возникает. Это одно и то же тело. В виртуальной реальности вы можете делать все, что захотите, здесь нет правил... В сериале Westworld многие люди пытаются убить, украсть, потому что там нет греха, но это не так. Наконец, то, что вы делаете в виртуальном пространстве, будет иметь определенные последствия и в вашей реальной жизни. И у нас должны быть определенные правила, как и в реальной жизни. В. Возможно, мы все больше и больше времени проводим в виртуальной реальности, где нет никаких последствий. О. Да, это риск. Если вы проводите всю жизнь в этой виртуальной реальности, вы просто клиент в матрице. Мы должны изучить эту систему, чтобы использовать ее правильно. Существует также проблема гендерного, расового, культурного разнообразия. Эти машины ведут статистику. Чат GPT, например, в основном на английском языке, потому что в нем много мнений от американцев. Когда вы спрашиваете о банковских праздниках, вам отвечают, что 4 июля - это не ваш праздник. Чтобы избежать подобного, мы должны создать собственную систему искусственного интеллекта, понять ее лучше и использовать для полезных вещей, таких как наука, медицина, экология. Сейчас мы как ребенок перед чем-то непонятным. В. О гендерной предвзятости, расовой предвзятости... Что можно сделать? О. В этих машинах гораздо больше женщин, чем мужчин. Когда вы разговариваете с чатботом, голос у него женский. Когда вы ищете секс-робота или другие виды роботов, среди них гораздо больше девушек. Однажды я спросил менеджера крупного банка во Франции, почему чат-бота зовут Грета, а не Герка. Он ответил: "Я разговаривал с клиентами-мужчинами, и они предпочитают женский голос, и мои клиенты-женщины ответили то же самое. Женский голос везде используется по умолчанию. Когда вы покупаете машину, в ней по умолчанию звучит женский голос. И если вы хотите изменить его, вам придется пройти через все шаги, а это усилие, которое не каждый прилагает. Что представляет собой это представление в сознании людей? Считают ли они его положительным? Вопрос в том, почему нет роботов-мужчин для женщин. В. Никто не просит о них? О. Есть две причины. Первая заключается в том, что люди, создающие роботов, - мужчины, поэтому они делают их для них, не задумываясь о последствиях. Есть София, Алекса, Сири... Второе - у нас нет такого стремления к доминированию. Я бы хотел, чтобы в Европе, например, действовало небольшое правило, гласящее, что при покупке предмета, способного разговаривать с другими людьми, вы должны в случайном порядке поставить голос мужчины, женщины или третий вариант. Если вам нужен женский голос для вашего продукта, вы должны объяснить, почему. В. В вашей презентации через очки виртуальной реальности была показана мать, обнимающая свою мертвую дочь. Способен ли мозг не быть одураченным подобным? О. Да, но это сложно. Представление реальных людей в этих машинах - это кошмар, потому что обычно вам кажется, что в артефакте есть часть человека, которого вы знаете. Очень трудно сохранять дистанцию. Теперь для этого есть рынок, и проблема всегда одна и та же: если есть рынок, некоторые люди колеблются. Что мы можем сделать, так это сосредоточиться на стандартах, которые должны соблюдаться, нормах, рекомендациях. В. Какие стандарты могут быть установлены в данном конкретном случае? О. Это вопрос, требующий дальнейшего изучения, и я пока не могу сказать, хорошо это или плохо. В некоторых странах, например в Японии, лицо человека уже подключается к роботу и используется во время поединка. Робот использует записанные видео, изображения и воспоминания умершего человека. Он способен продумывать вопросы и ответы, как бы имитируя разговор между пользователем и умершим. До сих пор система воспроизводила фразы, которые говорил умерший человек, но если я использую чат GPT или что-то подобное, система может придумывать новые фразы, и тут возникает проблема, потому что вы вкладываете слова в уста человека без его согласия. В результате этого многие люди начали ходить по домам престарелых и собирать данные, говоря, что наконец-то появился способ стать бессмертным. Есть кое-что, о чем нам стоит подумать. В. Говорят, что одна из трудностей в регулировании искусственного интеллекта заключается в том, что он развивается так быстро, что после принятия нормативного акта он уже устарел. О. Это очень быстро, но будьте осторожны, мистификация ИИ - это большая проблема. Это просто цифры, некие данные, собранные и смешанные с другими данными в модели, которая представляет собой черный ящик. Затем они могут создать нечто похожее на наш язык, что замечательно. Но нет никакой проверки, нет источников, все неопределенно. Вы задаете вопрос Google - результатами которого, как мы знаем, манипулируют, потому что есть люди, которые платят за то, чтобы появиться первыми, - но там есть ряд упорядоченных ссылок, и вы оцениваете, какие из них хорошие или плохие, какие полезны для вашего исследования, какие кажутся ненадежными, и так далее. Вы принимаете решения. Теперь это делает машина с искусственным интеллектом, которая не знает ни содержания, ни контекста. Никакой морали. Ничего. Только статистика. Для детей это кошмар, потому что они получают результаты, не пройдя через процедуру, как их получить. Мы должны подтолкнуть ИИ к тому, чтобы он научился учиться. В. Вы занимаетесь аффективными вычислениями уже 20 лет, и сейчас уже говорят о том, что кто-то может влюбиться в машину. Что вы думаете по этому поводу? О. Моя свобода заключается в том, чтобы иметь возможность влюбиться во все, что я захочу. Дерево, компьютер, компьютерные чат-боты - почему бы и нет? Это моя свобода. Но я должен понимать, что если я влюблюсь в машину, то это будет ложь. Вспомните фильм "Она", когда в какой-то момент мальчик обнаруживает, что машина влюблена во многих людей. Уникальность любви не в машине. В. Одинокий японец в вашем видео может быть влюблен в машину? О. Нет. Думаю, это можно представить скорее на примере пожилых людей. Когда вы близки к смерти, ваш партнер мертв, а детей больше нет, и вы чувствуете себя очень одиноко. Тогда, возможно, такая машина станет полезным компаньоном. Многие люди поступают так же с домашними животными. Мне кажется очевидным, что если в вашей жизни все достаточно стабильно, вокруг вас есть люди, то вам не нужны такие машины. Конечно, если вы одиноки и вокруг вас не так много людей, возможно, это могло бы помочь. Не знаю. Это вопрос, над которым стоит задуматься... Это проблема коэволюции машин. Искусственный интеллект - не разумный, а искусственный, это артефакт, который мы создали, как машину. Так что, если вы предпочитаете проводить время с предметами, почему бы и нет? По мне, нам нужно коллективно осознавать риски и создавать больше сообществ, больше обменов. Понимать, что происходит, и помогать другим, чтобы не потеряться в этом переходе. Очень важно быть начеку и определить, как лучше использовать этот тип машин".