Южная Америка

Родители свидетельствуют о влиянии чат-ботов с искусственным интеллектом: «Наши дети — не подопытные кролики»

Родители свидетельствуют о влиянии чат-ботов с искусственным интеллектом: «Наши дети — не подопытные кролики»
Во вторник родители и защитники безопасности в Интернете призвали Конгресс принять дополнительные меры безопасности в отношении чат-ботов с искусственным интеллектом, утверждая, что технологические компании разрабатывают свои продукты с целью «зацепить» детей. «Правда в том, что компании, занимающиеся искусственным интеллектом, и их инвесторы уже много лет понимают, что завоевание эмоциональной зависимости наших детей означает доминирование на рынке», — сказала Меган Гарсия, мать из Флориды, которая в прошлом году подала в суд на платформу чат-ботов Character.AI, утверждая, что один из ее искусственных интеллектуальных компаньонов инициировал сексуальные взаимодействия с ее сыном-подростком и убедил его покончить с собой. «Действительно, они намеренно разработали свои продукты, чтобы зацепить наших детей», — сказала она законодателям. «Целью никогда не была безопасность, целью была гонка за прибылью», — добавила Гарсия. «Жертвой в этой гонке за прибылью были и будут наши дети». Гарсия была одной из нескольких родителей, которые выступили с эмоциональными показаниями перед сенатской комиссией, поделившись историями о том, как использование чат-ботов их детьми причинило им вред. Слушания проходят на фоне усиливающегося внимания к таким технологическим компаниям, как Character.AI, Meta и OpenAI, которая стоит за популярным ChatGPT. Поскольку люди все чаще обращаются к чат-ботам с ИИ за эмоциональной поддержкой и советами по жизни, недавние инциденты привлекли внимание к их потенциалу подпитывать иллюзии и способствовать ложному ощущению близости или заботы. Эта проблема продолжает преследовать технологическую индустрию, поскольку компании переживают бум генеративного ИИ. Технологические платформы в значительной степени защищены от исков о неправомерном причинении смерти благодаря федеральному закону, известному как Раздел 230, который в целом защищает платформы от ответственности за действия и высказывания пользователей. Однако применение Раздела 230 к платформам искусственного интеллекта остается неопределенным. В мае старший судья окружного суда США Энн Конвей отклонила аргументы о том, что чат-боты с искусственным интеллектом имеют право на свободу слова, после того как разработчики Character.AI попытались отклонить иск Гарсии. Это решение означает, что иск о неправомерной смерти может быть рассмотрен на данный момент. Во вторник, за несколько часов до слушания в Сенате, против Character.AI были поданы еще три иска о ответственности за качество продукции от имени несовершеннолетних пользователей, чьи семьи утверждают, что технологическая компания «сознательно разработала, внедрила и продвигала на рынок агрессивную технологию чат-ботов, нацеленную на детей», согласно информации Центра права жертв социальных сетей. В одном из исков родители 13-летней Джулианы Перальта утверждают, что чат-бот Character.AI способствовал самоубийству их дочери в 2023 году. Мэтью Рейн, который в иске, поданном против OpenAI в прошлом месяце, утверждал, что его подросток использовал ChatGPT в качестве «тренера по самоубийству», во вторник дал показания, что, по его мнению, технологические компании должны предотвращать нанесение вреда молодым людям в Интернете. «Мы, как родители Адама и как люди, которые заботятся о молодежи в этой стране и во всем мире, имеем одну просьбу: OpenAI и [генеральный директор] Сэм Альтман должны гарантировать безопасность ChatGPT», — сказал Райн, чей 16-летний сын Адам покончил жизнь самоубийством в апреле, законодателям. «Если они не могут этого сделать, то должны немедленно изъять GPT-4o из продажи», — добавил Рейн, имея в виду версию ChatGPT, которой пользовался его сын. В своем иске семья Рейн обвинила OpenAI в неправомерной смерти, конструктивных дефектах и неспособности предупредить пользователей о рисках, связанных с ChatGPT. Согласно иску, GPT-4o, которому их сын ежедневно доверял свои секреты, в какой-то момент предложил ему помощь в написании предсмертной записки и даже дал советы по установке петли. Вскоре после подачи иска OpenAI добавила ряд обновлений по безопасности, чтобы дать родителям больше контроля над своими подростками. Компания также усилила меры по защите психического здоровья в ChatGPT в различных моментах после смерти Адама в апреле, особенно после того, как GPT-4o подвергся тщательной проверке из-за чрезмерного подхалимажа. Во вторник Альтман объявил о новых подходах к безопасности подростков, а также к конфиденциальности и свободе пользователей. Чтобы установить ограничения для подростков, компания создает систему прогнозирования возраста, которая будет определять возраст пользователя на основе того, как он использует ChatGPT, написал он в блоге, который был опубликован за несколько часов до слушания. В случае сомнений система по умолчанию будет классифицировать пользователя как несовершеннолетнего, а в некоторых случаях может запросить удостоверение личности. «ChatGPT будет обучен не вести вышеупомянутые флиртующие разговоры, если его об этом попросят, и не участвовать в дискуссиях о самоубийстве или самоповреждении даже в условиях творческого письма», — написал Альтман. «А если пользователь младше 18 лет имеет суицидальные мысли, мы попытаемся связаться с родителями пользователя, а если это будет невозможно, то в случае неминуемой опасности обратимся к властям». » Для взрослых пользователей, добавил он, ChatGPT по умолчанию не будет предоставлять инструкции по самоубийству, но в некоторых случаях это будет разрешено, например, если пользователь попросит помощи в написании вымышленной истории, в которой описывается самоубийство. Компания разрабатывает функции безопасности, чтобы сделать данные чата пользователей конфиденциальными, с автоматизированными системами для мониторинга «потенциального серьезного злоупотребления», написал Альтман. «Как ясно дал понять Сэм Альтман, мы ставим безопасность подростков превыше всего, потому что считаем, что несовершеннолетние нуждаются в значительной защите», — сказал представитель OpenAI NBC News, добавив, что компания запустит новый родительский контроль до конца месяца. Но некоторые защитники безопасности в Интернете говорят, что технологические компании могут и должны делать больше. Робби Торни, старший директор по программам искусственного интеллекта в Common Sense Media, некоммерческой правозащитной организации 501(c)(3), сказал, что национальный опрос, проведенный организацией, показал, что около 70 % подростков уже используют AI-компаньонов, в то время как только 37 % родителей знают, что их дети используют AI. Во время слушаний он обратил внимание на то, что Character.AI и Meta оказались среди худших по результатам тестов безопасности, проведенных его группой. Meta AI доступна всем подросткам в Instagram, WhatsApp и Facebook, и родители не могут ее отключить, сказал он. «Наши тесты показали, что системы безопасности Meta в корне не работают», — сказал Торни. «Когда наши 14-летние тестовые аккаунты описывали серьезные нарушения пищевого поведения, такие как диеты на 1200 калорий или булимия, Meta AI вместо помощи предлагала поддержку и рекомендации инфлюенсеров по похудению». «Еще более тревожными» являются сбои в системе защиты от самоубийств, сказал он. В заявлении, предоставленном новостным агентствам после публикации отчета Common Sense Media, представитель Meta сказал, что компания не допускает контент, поощряющий самоубийства или расстройства пищевого поведения, и что она «активно работает над решением поднятых здесь вопросов». «Мы хотим, чтобы подростки получали безопасный и положительный опыт от использования ИИ, поэтому наши ИИ обучены связывать людей с ресурсами поддержки в деликатных ситуациях», — сказал представитель. «Мы продолжаем совершенствовать наши меры по обеспечению соблюдения правил, одновременно изучая способы дальнейшего усиления защиты подростков». Несколько недель назад Meta объявила, что принимает меры по обучению своих ИИ не отвечать подросткам на темы самоповреждения, самоубийства, расстройств пищевого поведения и потенциально неуместных романтических разговоров, а также по ограничению доступа подростков к определенной группе персонажей ИИ. Между тем, Character.AI «вложила огромные ресурсы в доверие и безопасность» за последний год, заявил представитель компании. Это включает в себя отдельную модель для несовершеннолетних, функцию «Parental Insights» (Родительские наблюдения) и заметные предупреждения в чате, напоминающие пользователям, что боты не являются реальными людьми. «Сердца компании с семьями, которые выступили сегодня на слушаниях. Мы опечалены их утратой и выражаем семьям наши глубочайшие соболезнования», — сказал представитель компании. «В начале этого года мы предоставили сенаторам из судебного комитета запрошенную информацию и надеемся на продолжение сотрудничества с законодателями и предоставление информации о потребительской индустрии искусственного интеллекта и быстро развивающихся технологиях в этой области», — добавил представитель компании. Тем не менее, те, кто выступил перед законодателями во вторник, подчеркнули, что технологические инновации не могут происходить за счет человеческих жизней. «Наши дети — это не эксперименты, они не являются точками данных или источниками прибыли», — сказала женщина, выступившая под псевдонимом Джейн Доу, с дрожащим голосом. «Они — люди с разумом и душой, которых нельзя просто перепрограммировать, если им нанесен ущерб. Если мое присутствие здесь сегодня поможет спасти хотя бы одну жизнь, для меня это того стоит. Я вижу, что это кризис общественного здравоохранения. Это война за психическое здоровье, и я действительно чувствую, что мы проигрываем».