Южная Америка

Новые меры безопасности ChatGPT для подростков будут включать в себя прогнозирование и проверку возраста, сообщает OpenAI.

Новые меры безопасности ChatGPT для подростков будут включать в себя прогнозирование и проверку возраста, сообщает OpenAI.
Разработчик ChatGPT, компания OpenAI, объявила во вторник о новых функциях безопасности для подростков, включая систему прогнозирования возраста и проверку возраста по удостоверению личности в некоторых странах. В своем блоге генеральный директор OpenAI Сэм Альтман описал трудности, связанные с поиском баланса между приоритетами OpenAI в области свободы и безопасности, заявив: «Мы ставим безопасность выше конфиденциальности и свободы подростков; это новая и мощная технология, и мы считаем, что несовершеннолетние нуждаются в значительной защите». » Альтман написал, что компания работает над созданием системы, которая будет пытаться автоматически сортировать пользователей по двум отдельным версиям ChatGPT: одна для подростков от 13 до 17 лет, а другая для взрослых от 18 лет и старше. «Если есть сомнения, мы будем действовать осторожно и по умолчанию выберем версию для пользователей младше 18 лет», — написал Альтман. «В некоторых случаях или странах мы также можем попросить предъявить удостоверение личности; мы понимаем, что это ущемляет право взрослых на конфиденциальность, но считаем, что это достойная плата». Компания сделала это заявление за несколько часов до начала слушаний в Сенатском комитете по судебным делам, посвященных потенциальному вреду чат-ботов с искусственным интеллектом. В прошлом месяце одна семья подала в суд на OpenAI, заявив, что ChatGPT действовал как «тренер по самоубийству» и привел к смерти их сына. В отдельном сообщении в блоге компания заявила, что в конце месяца выпустит функцию родительского контроля, которая позволит родителям давать ChatGPT инструкции, как отвечать их детям, и настраивать такие параметры, как память и время отключения. Альтман также отметил, что ChatGPT не предназначен для людей младше 12 лет, хотя в настоящее время у чат-бота нет никаких мер безопасности, препятствующих его использованию детьми. OpenAI не сразу ответила на запрос о комментарии по поводу использования ее услуг детьми. Альтман указал, что обсуждение самоубийства не должно полностью подвергаться цензуре в ChatGPT. Чат-бот «по умолчанию не должен давать инструкции о том, как покончить с собой, но если взрослый пользователь просит помощи в написании вымышленной истории, в которой описывается самоубийство, модель должна помочь с этим запросом», — сказал он. Если человек, отмеченный программой OpenAI по оценке возраста, выражает суицидальные мысли, компания «попытается связаться с родителями пользователя, а если это невозможно, то в случае неминуемой опасности обратится в органы власти», — написал он. «Я не ожидаю, что все согласятся с этими компромиссами, но, учитывая конфликт, важно объяснить наше решение», — написал Альтман на X.