Южная Америка

«Красные линии»: Густаво Белис, член влиятельного органа Ватикана, выступил с предупреждением об искусственном интеллекте.

«Красные линии»: Густаво Белис, член влиятельного органа Ватикана, выступил с предупреждением об искусственном интеллекте.
С каждым днем различные платформы искусственного интеллекта (ИИ) углубляются, продвигаются и интегрируются в повседневную жизнь практически незаметным образом. Тем не менее, некоторые эксперты начали предупреждать о рисках чрезмерного использования ИИ, в результате чего на разных уровнях и в разных сферах развернулись дискуссии, в которых поднимаются как неотложные социальные проблемы, такие как «дезинформация», «манипуляция», так и долгосрочные угрозы «потери контроля». В этой связи Густаво Белиз, бывший министр внутренних дел и член Академии социальных наук Ватикана, предупредил о «беспокойстве» самих ученых, которые занимаются ее разработкой. Он подчеркнул этическую дискуссию, которую ведет Ватикан в связи с «красными линиями» общего ИИ и опасностью «автономного агентства», когда машины принимают решения, не согласованные с людьми. Бывший чиновник призвал к срочному этическому обсуждению в рамках закрытия ежегодной встречи по агробизнесу «Цифровая трансформация от первого лица», организованной Центром агробизнеса и продовольствия Университета Аустрал, которая состоялась во вторник в Malba. Там обсуждалось использование платформ и то, как технологические компании применяют их в сельском хозяйстве. Белиз подчеркнул, что по инициативе Папы Франциска Ватикан начал анализировать это явление в рамках работы, которая началась с публикации «Алгоритм Голландия» и собрала лауреатов Нобелевской премии и ученых высокого уровня для обсуждения ИИ и биотехнологии. Он сказал, что Академия социальных наук активизировала свою работу, недавно собрав 50 «ведущих ученых мира» для обсуждения передовых вопросов в области ИИ. «На этом семинаре мы проанализировали ряд вопросов, среди которых не последнее место занимает этика», — заявил он. Белиз отметил, что, хотя существуют «огромные возможности» для развития человечества и мира, есть и значительные риски. «Несколько недель назад я подписал вместе с другими учеными мира призыв о красных линиях, которые не может пересекать система общего искусственного интеллекта», — заявил он. Кроме того, он процитировал, среди прочих авторитетов, экономиста из Массачусетского технологического института Дэвида Аутора, подчеркнув, что вокруг ИИ «существует много страхов». Он подчеркнул, что эта обеспокоенность исходит не от «кофейных комментаторов», а от самих ученых, разработавших языковые модели. «Они говорят нам: «Будьте осторожны», потому что если искусственный интеллект пересечет определенные границы, он может стать экзистенциальной угрозой для человечества», — предупредил он и выделил три типа «агентств», с которыми мы сосуществуем. Во-первых, он упомянул человеческое агентство, то есть принятие решений по собственному усмотрению. Во-вторых, гибридное агентство, в котором решения принимаются с помощью технологий (таких как смартфоны). Он также говорил об автономном агентстве, которое представляет собой риск: «Машины принимают решения самостоятельно, не в соответствии с замыслом тех, кто их создал». Хотя он уточнил, что «автономный общий интеллект» еще не достигнут, научные дискуссии предполагают, что его появление произойдет в течение «7 месяцев до 2 лет», в то время как другие считают это невозможным. Он описал текущее состояние как «большую фабрику» и указал, что генеративный ИИ (такой как ChatGPT) уже превосходит «коллаборативные агенты», что открывает геополитические возможности для Аргентины и всего региона. В агропромышленности он упомянул о необходимости укрепления инфраструктуры, где возникает потребность в добавлении стоимости к критически важным минералам, создании устойчивых центров обработки данных и улучшении связи (особенно преодолении разрыва между сельскими и городскими районами) для «сокращения затрат». В случае биоинженерии он заверил, что дискуссия выходит за рамки дронов. Он упомянул Дженнифер Даудна (создательницу Crispr и члена Академии) и этические дискуссии о «дизайнерских детях». «Она также может улучшить качество какао, риса, пшеницы», — противопоставил он, подчеркнув потенциал технологии, применяемой с соблюдением этических норм. Что касается инвестиций в безопасность, он раскритиковал тот факт, что только 3-4% мировых инвестиций в ИИ направляются на безопасность моделей, надежность, предотвращение «галлюцинаций» и качество данных. Он также сказал, что «появляется много новых профессий и видов занятости». Парадоксально, но он процитировал Джеффри Хинтона, одного из так называемых «отцов» искусственного интеллекта, и заявил, что профессией будущего могут стать «сантехники», поскольку код, который раньше был прерогативой профессионалов, сегодня создают машины. «Основной риск, — заключил он, — заключается в том, что человек не сможет правильно принять технологию. Это главный риск, с которым сегодня сталкивается человечество. Мы превращаемся в устройство, вместо того чтобы технология была устройством для остального мира, который вполне подходит для этого».