Южная Америка

«Настоящая опасность искусственного интеллекта — это человеческая глупость»

Наступила ночь, и вы решили пойти поужинать. Возможно, ваш партнер не знает, что вы хотите съесть, но искусственный интеллект знает: днем он видел, как вы смотрели видеоролики о тако, и ему ясно, что теперь вы не можете думать ни о чем другом. «Если мы не принимаем решения, другие сделают это за нас», — пишет испанская журналистка и писательница Лаура Г. Де Ривера в своей книге «Рабы алгоритма: руководство по сопротивлению в эпоху искусственного интеллекта», которая является результатом многолетних исследований. «Мы живем, погруженные в мысли, желания и чувства, навязанные извне, потому что оказывается, что люди довольно предсказуемы. Достаточно применить статистику к нашим прошлым действиям, и это как будто кто-то читает наши мысли», — продолжает она. Точность предсказания наших потребностей или желаний настолько велика, что Михал Косински, психолог и профессор Стэнфордского университета, в своих экспериментах доказал, что хорошо обученный алгоритм с достаточным количеством цифровых данных может предсказать, что вам нравится, даже лучше, чем ваша мать. То, что искусственный интеллект может с высокой точностью предсказывать интересы человека, в принципе, звучит неплохо. Но за это приходится платить высокую цену, говорит Де Ривера: «Мы теряем свободу, теряем способность быть самими собой, теряем воображение». «Мы бесплатно работаем на Instagram, загружая свои фотографии, чтобы социальная сеть существовала и зарабатывала миллионы. «Нужно быть осмотрительным и пользоваться преимуществами платформ, не подвергаясь рискам», — говорит он. Мы пообщались с Де Ривера в рамках фестиваля Hay Festival, который проходит с 6 по 9 ноября в перуанском городе Арекипа и собирает 130 участников из 15 стран. Каково же решение, чтобы не стать рабами алгоритма? Решение, которое я вижу, очень простое, доступно любому человеку, бесплатно и не наносит ущерба окружающей среде. Оно заключается в том, чтобы просто думать. То есть использовать наш мозг. Это человеческая способность, которая вышла из употребления, была утрачена. Каждый раз, когда мы не работаем и не общаемся с людьми, мы берем телефон и отвлекаемся на экран. Мы больше не думаем в приемной у врача или когда скучаем дома. Те пространства, которые у нас были для размышлений, теперь полностью заняты постоянными отвлекающими факторами. Через наш смартфон мы получаем бомбардировку стимулов, которая не дает нам думать. Есть и другие вещи, которые можно сделать, но мне кажется, что это самое основное и самое простое. Только критическое мышление может защитить индивидуальную свободу от алгоритмического контроля и воли третьих лиц. Практически невозможно не предоставить свои данные при подписке на платформу. Еще сложнее прочитать весь мелкий шрифт в условиях предоставления услуг или отклонять «куки» при каждом входе на веб-сайт. Мы стали ленивыми? Мы немного ленивы и немного марионетки, но нам также не хватает информации. Многие люди не понимают, что, проводя часы перед TikTok, они фактически работают бесплатно на эту платформу. Вы предоставляете всю информацию о своем поведении в Интернете, а эта информация стоит денег. Поэтому важное значение имеет образование, которое объясняет, как работает бизнес-модель этих крупных платформ. Как возможно, что Google является одной из самых богатых компаний в мире, если она не взимает с нас плату за свои услуги? Очень важно поразмыслить над этим, чтобы люди поняли, насколько ценна вся информация, которую мы предоставляем о себе. В чем заключается опасность искусственного интеллекта? На самом деле, настоящая опасность — это человеческая глупость, потому что искусственный интеллект не может вам ничего сделать, это просто нули и единицы. Дело в том, что наша лень настолько велика, что если нам дают готовые вещи, то тем лучше. Все это ставит нас в положение, в котором мы более подвержены манипуляциям. Мы живем в состоянии общего оцепенения воли. Мы смирились с цифровизацией системы здравоохранения, массовой слежкой и онлайн-образованием наших детей. Мы принимаем несправедливость, злоупотребления и невежество как неизбежные вещи, против которых мы не можем восстать, потому что нам лень. Каковы могут быть последствия полного доверия к автоматическим прогнозам алгоритмической системы? Когда мы делегируем важные решения, которые могут даже касаться жизни и смерти, риск очень велик, особенно потому, что есть исследования, которые показывают, что люди склонны думать, что если это говорит компьютер, то это правда. Даже если мы думаем иначе. Так кому же вы позволите принимать решения? Своей матери, учителю, начальнику, искусственному интеллекту? Это очень давняя проблема человечества, и мне очень нравится книга психоаналитика, социолога и члена Франкфуртской школы Эриха Фромма «Страх перед свободой», которая посвящена именно этому. Фромм утверждает, что люди предпочитают, чтобы им говорили, что делать, потому что мы паникуем при мысли, что это зависит от нас. Принимать решения нам очень страшно, и мы предпочитаем быть как роботы и получать указания, что делать. И об этом Фромм говорил еще в начале XX века. Есть ли способ не предоставлять свои данные в Интернете? Конечно, есть. Есть способ не предоставлять свои данные. Есть способ предоставлять только самое необходимое. Но главное — знать, как работают платформы. И тогда можно принять меры. Хотя бы для того, чтобы немного усложнить жизнь тем, кто торгует вашей жизнью и вашими данными. Вы можете привыкнуть к небольшим действиям, таким как отказ от файлов cookie при входе на страницу. Что еще мы можем сделать? Мы также можем говорить о необходимости регулирования, которое будет нас защищать, о развитии этики со стороны компаний, использующих искусственный интеллект. Мы можем говорить о том, как важно слушать информаторов, всех тех людей, которые находятся внутри, которые знают систему, потому что работают в таких компаниях, как Google или Meta, и рассказывают о ней. Слушать их и защищать их, когда они решают заговорить. Вы имеете в виду случай Эдварда Сноудена, который раскрыл системы массовой слежки, применяемые американскими спецслужбами? Да, Сноуден для меня — один из героев этого века, но есть и другие. Ее случай является самым известным. Есть еще Софи Чжан, 데이터-аналитик Facebook, уволенная после того, как она внутренне предупредила о систематическом использовании фальшивых аккаунтов и ботов правительствами и политическими партиями для манипулирования общественным мнением и разжигания ненависти. Чжан обнаружила, что во многих частях мира, в Латинской Америке, Азии и даже в некоторых местах Европы, политики использовали фальшивые аккаунты с несуществующими подписчиками, лайками и перепостами, чтобы обмануть граждан и заставить их поверить в ложную поддержку и популярность. Когда она сообщила о проблеме своим начальникам, она с удивлением обнаружила, что никто не хочет ничего делать, чтобы ее решить. Например, им потребовался год, чтобы удалить сеть фальшивых подписчиков тогдашнего президента Гондураса Хуана Орландо Эрнандеса, признанного Федеральным окружным судом в Нью-Йорке виновным в сговоре с целью ввоза кокаина в США и хранении пулеметов. В своей книге вы также рассказываете о случае инженера-программиста Тимнит Гебру, содиректора команды по этике искусственного интеллекта Google, которая также была уволена. Да, за то, что она заявила, что алгоритмы способствуют расовой и гендерной дискриминации. Она предупредила, что большие языковые модели могут представлять опасность, что люди могут поверить, что они являются людьми, и что они могут манипулировать людьми. Несмотря на письмо протеста против его увольнения, подписанное более чем 1400 сотрудниками компании, он остался на улице. Еще одним «героем свистка» является Гийом Шасло, бывший сотрудник YouTube, который обнаружил, что алгоритм рекомендаций систематически подталкивал пользователей к сенсационному, конспирологическому и поляризующему контенту. Какая надежда у нас остается? Мы точно знаем, что, что бы ни делала программа, она не может привнести ни капли творчества, чтобы придумать новые варианты, то есть не основанные на статистике прошлых данных. Она также не сможет предложить решения, основанные на эмпатии, чтобы поставить себя на место другого, или на солидарности, чтобы искать собственное счастье в счастье ближнего. Три качества, которые по определению являются исключительно человеческими. Нажмите здесь, чтобы прочитать больше статей BBC News Mundo. Подпишитесь здесь на нашу новую рассылку, чтобы каждую пятницу получать подборку лучших материалов недели. Вы также можете следить за нами на YouTube, Instagram, TikTok, X, Facebook и на нашем канале WhatsApp. И не забывайте, что вы можете получать уведомления в нашем приложении. Загрузите последнюю версию и активируйте их.