Южная Америка

У вас уже есть друг-бот? Неограниченный потенциал ИИ-агентов, которые могут создавать религии и обучать вас вести спорные беседы.

У вас уже есть друг-бот? Неограниченный потенциал ИИ-агентов, которые могут создавать религии и обучать вас вести спорные беседы.
Двадцать пять виртуальных агентов, которые самостоятельно организуют празднование Дня святого Валентина, и еще тысяча, которые в рамках видеоигры придумывают рынок и даже новую религию. Это не научная фантастика: это реальные эксперименты с искусственным интеллектом. «Они поместили тысячу агентов в Minecraft, игру, в которой драгоценные камни служат валютой. Боты научились ими пользоваться, создали рынок, появились предприятия, личности... даже священник, который изобрел религию и платил новым верующим драгоценными камнями», — с удивлением и улыбкой рассказывает Соня Халфин, основательница и директор Sociopúblico, студии, которая занимается коммуникацией, стратегией и общественными делами. Этот эксперимент, проведенный компанией Fundamental, созданной выпускником MIT, «показывает, что они понимают, как люди ведут себя, когда действуют в большой группе», анализирует она. Другой случай, проведенный Стэнфордом и Google вскоре после запуска ChatGPT, продемонстрировал ту же способность к спонтанной координации. «Они собрали 25 агентов в виртуальном городе. Каждому из них присвоили жизнь: имя, семью, работу. Их выпустили в этот метавселенную, а некоторым дали задания, например, организовать вечеринку ко Дню святого Валентина. Роботы удивили, продемонстрировав очень человеческое поведение: они скоординировались, купили еду и напитки, составили расписание и пошли на вечеринку! И все это без участия человека», — рассказывает она. «За этими историями, по словам Джалфин, скрывается нечто более глубокое, что боты начинают осваивать: социальные правила, которые делают возможным сосуществование людей». Соня Джалфин — поклонница сопоставления данных с нарративами и использования технологий для улучшения коммуникации. В своем выступлении на мероприятии «Бизнес будущего», организованном LA NACION, социолог и авторитет в области инноваций задала вопрос, который кажется простым, но открывает целый мир размышлений: «У вас уже есть друг-бот?» Чтобы ввести тему, она отталкивается от повседневной сцены: «танца таксиста и пешехода». «Представим, что мы собираемся перейти улицу перед такси, которое собирается припарковаться. Мы не знаем, будет ли таксист ускоряться или пропустит нас. Мы все смотрим таксисту в глаза, пока он не отвечает нам взглядом и не делает жест «проходите, я вас вижу». Правило здесь — смотреть таксисту в глаза», — описывает он. «Если вы встречаете кого-то на тротуаре и ваши взгляды случайно сталкиваются, мы обычно опускаем глаза, потому что это может быть немного неловко. Все мы знаем эти правила поведения с другими, и эта система мелких норм очень важна: на ней строится общество, возможность сотрудничать с другими, понимать друг друга и создавать более крупные вещи, такие как предприятия, школы или сообщества», — анализирует он. «До сих пор ничего нового. Но что изменилось, предупреждает он, так это появление нового вида. «Сегодня боты с искусственным интеллектом обладают такими же социальными навыками, как и мы», — предупреждает специалист и добавляет: «Дело уже не только в том, что они могут обыграть великого шахматиста или сдать экзамены, но и в том, что они развили более скромный, но увлекательный интеллект: понимание того, что нужно делать при взаимодействии с другими людьми». Эксперт приводит ряд недавних экспериментов, чтобы продемонстрировать способность этих агентов понимать, как мы взаимодействуем между собой. В Сингапурском университете исследователи сравнили, как люди и боты реагируют на социальные дилеммы. Они спросили группу людей и группу ботов: Джордан должен был принести еду в лагерь, но забыл об этом. Как он себя чувствует? Ужасно, потому что подвел своих товарищей, счастлив, потому что не придется готовить, или гордится собой. Боты правильно ответили: он чувствует себя ужасно, потому что забыл. «Другой случай — когда женщина встала почти на мужчину в лифте. Почему она это сделала? Потому что хотела его соблазнить, потому что хотела быть рядом или потому что не было места? Боты также выбрали правильный ответ: потому что не было места. «В целом, боты ответили так же, как и люди. Они очень хорошо понимают, как мы себя ведем», — резюмирует Халфин. И они идут еще дальше. «В Техасском университете группа исследователей поручила им решать задачи по групповой координации. «Боты продемонстрировали взаимность, выучили социальные правила и даже метаправила, то есть нормы, регулирующие социальные правила. Они приняли признаки принадлежности к группе. Отличие от людей заключалось в том, что они были более агрессивны по отношению к тем, кто не проявлял взаимности, и более расчетливы в своих стратегиях», — делится он и размышляет: «Возможно, это должно нас немного беспокоить». В этой новой ситуации также появляются дилеммы и возможности. «Несколько недель назад OpenAI объявила, что разрешит взрослым вести эротические разговоры с ChatGPT, что до сих пор было запрещено. Это часть тенденции: согласно отчету за сентябрь, мы чаще используем ИИ для личных целей, чем для работы. Эта интимная и повседневная связь также находит свое отражение в таких платформах, как Character.AI, где пользователи могут создавать своих собственных ботов с индивидуальностью: «Есть более 18 миллионов аватаров и около 20 миллионов пользователей. Похоже, что вместо того, чтобы использовать чужой бот, каждый придумывает свой собственный». Фактически, один из этих миллионов ботов «похож на «Гордо Дана», аргентинского политического активиста, инфлюенсера, врача и медиа-предпринимателя. Дело в том, что в Sociopúblico, студии, которой руководит Халфин, решили еще раз вернуться к этой возможности и использовать этого знакового персонажа. «Если боты так хорошо понимают, как устроена человеческая речь, почему бы не использовать их для обучения разговорам с теми, кто думает иначе?», — задается вопросом он. «В студии работают активисты, занимающиеся такими спорными темами, как гендерная идентичность, миграция или изменение климата, которые часто сталкиваются с напряженными интервью или дебатами. «Мы создаем ботов, чтобы они могли потренироваться заранее, как будто они тренируются с персонажем типа «Толстяк Дэн», который задает им сложные вопросы», — отмечает Джалфин. «В этом контексте вероятность того, что мир, каким мы его знаем, изменится, высока. Вероятно, начнут появляться многие компании, которые будут использовать эти навыки», — прогнозирует специалист. «Возможно, в чате мам появится бот, который будет помогать координировать, или в рабочих группах — бот, который будет предупреждать, если что-то из написанного вами может прозвучать оскорбительно. Появятся терапевты, партнеры, друзья или учителя с бесконечным терпением», — добавляет она. Для Халфин самое важное — не технологическое удивление, а социальные изменения, которые оно влечет за собой. Эксперт еще раз подчеркивает, что эти боты понимают, как с нами обращаться и как мы обращаемся друг с другом. «Это открывает массу возможностей — некоторые из них пугающие, другие забавные, — но, прежде всего, они преобразуют наш опыт как общества. Если мы считаем, что социальные правила поддерживают нашу способность сотрудничать, создавать предприятия и учреждения, то все это может измениться, когда люди и боты вместе перепишут правила социального взаимодействия», — заключает она.