Антропоморфизация пользователей: новые модели ChatGPT и их странное поведение

На прошлой неделе OpenAI представил две новые модели: ChatGPT o3 и o4-mini. Заинтригованные тем, какие новые обновления могут принести эти модели, пользователи начали воплощать их в жизнь с помощью своих подсказок. В дополнение к записи о новых возможностях, предлагаемых обеими системами, стали известны их недостатки. Вернее, некоторые странные аспекты, которые проявились в двух продуктах, предложенных крупной технологической компанией: «В целом, ChatGPT o3 и o4-mini ориентированы на рассуждения. Модели предназначены для программирования, работы в Интернете, автономной генерации изображений и даже мышления с помощью образов. Это две системы, которые стремятся объединить все навыки искусственного интеллекта, разработанные OpenAI, в одном месте». Сэм Альтман в социальной сети X представил их как самые мощные модели компании на сегодняшний день. «Интеллектуально я знал, что это произойдет, но для меня это совсем другое, - написал генеральный директор о запуске, - Однако одной из странных (и тревожных для некоторых) вещей является тот факт, что эти модели включают имя пользователя, без подсказки, в свой процесс рассуждения». Важно пояснить, что, вставляя подсказку, эти две системы отображают в чате все этапы процесса рассуждений: что они анализируют, где ищут, какие ошибки находят, а также другие шаги, которые приводят их к окончательному ответу. Поэтому, когда человек дает подсказку ИИ, она начинается с имени. Например: «Виктория попросила его вычислить...» Саймон Уиллисон, предприниматель и энтузиаст технологий с большим количеством поклонников, поделился этим феноменом на сайте X вместе с комментарием, который обозначил его недовольство этой новой функцией. «Кому-то нравится, что o3 использует ваше имя в своей цепочке мыслей, а не считает это жутким и ненужным?» - сказал он. Многие люди присоединились к этой теме и прокомментировали, что не считают это обновление удачным и фактически ненавидят его. «Другой пример привел Дебасиш Паттанаяк, специалист по технологиям, который поделился фотографией того, как ChatGPT материализовал эту тенденцию. «Странно видеть свое собственное имя в мыслительном процессе модели», - написал он. «Есть ли причина, по которой они это добавили?» - спросил он в сети, отметив OpenAI. Компания не ответила, но у этой тенденции есть объяснение: «По словам Сантьяго Весполи, эксперта по технологиям и соучредителя Erebant, консалтинговой компании, специализирующейся на искусственном интеллекте, OpenAI недавно улучшил память ChatGPT, чтобы он мог запоминать всю историю чата и ссылаться на прошлые разговоры или знания», - рассказал он LA NACION. «Это также часть усилий, направленных на то, чтобы сделать искусственный интеллект ближе к пользователю. Использование вашего имени - это попытка создать пространство близости», - пояснил он. Эта попытка сближения вывела на передний план технологическую антропоморфизацию - понятие, используемое для описания тенденции приписывать машинам человеческие характеристики. В этой связи Серджио Перниче, директор отдела разработки искусственного интеллекта, рассказал LA NACION, что до 2022 года разговор будет исключительно человеческой деятельностью. «Язык, сложная коммуникация - это одна из особенностей, которая нас отличает», - сказал он. «Однако, в отличие от Перниче, Кристиан Феррер, социолог и профессор кафедры культуры, техники и общества на факультете социальных наук (UBA), сказал LA NACION, что он не верит в то, что ChatGPT может антропоморфировать. «Я подозреваю, что все будет наоборот: либо мы, люди, начнем моделировать свой язык, чтобы соответствовать машине, либо эти удобства превратят нас в существ, не нуждающихся в общении с другими людьми и боящихся любого контакта с другой кожей», - сказал он. Но модели ChatGPT o3 и o4-mini также стали трендом из-за аспектов, не имеющих отношения к их новым функциям мультимодальной обработки. Пользователь X Дэниел Гроунинг, который всегда делится противоречивыми мыслями и имеет большое сообщество последователей, пустил слух, что ChatGPT теперь одержим непорочным зачатием Марии. «Внутри OpenAI целая команда судорожно пытается выяснить причину этого, и ведется огромная работа по созданию шумихи, чтобы об этом не говорили. Никто не понимает, почему, и это становится все более и более интенсивным«, - написал он. „Даже если это просто спекуляция, основанная на словах одного пользователя на сайте X, обвинение приобрело еще больший характер, когда дизайнер моделей в OpenAI Эйдан Маклафлин ответил в теме “это правда», а затем удалил ее. Дэниел разоблачил его и заявил, что технологический гигант «боится, что это всплывет до того, как они сами поймут последствия». На что Эйдан ответил: «Я не могу говорить приятные вещи», намекая на то, что они заблокировали или удалили сказанное им от большей силы. «На это Весполи сказал, что официального подтверждения нет, а примеры, циркулирующие на X, не кажутся серьезными. «Тем не менее, такие вещи могут происходить незаметно. Используя модели глубокого обучения и учитывая их архитектуру, никто до конца не понимает, как они работают и какими возможностями на самом деле обладают», - сказал Весполи. Они представляют собой своего рода черный ящик». Поэтому не исключено, что они демонстрируют необычное поведение, которое даже исследователи OpenAI не могут полностью предугадать или контролировать», - добавил он. »В связи с этим Аугусто Алегре, специалист по искусственному интеллекту, подтвердил LA NACION, что при использовании новых моделей он не заметил, чтобы они писали евангелические ответы. Однако, пытаясь найти объяснение этому возможному феномену, он сказал: «Возможно, они индуцировали модель серией предыдущих инструкций, которые привели ее к ошибочным рассуждениям. И что ж, модели сегодня галлюцинируют... все меньше и меньше, но галлюцинируют. Они делают ошибки, все меньше и меньше, но они делают ошибки».