Дискуссия об этике в искусственном интеллекте, о том, какие навыки можно приобрести, что можно потерять и как далеко зайти.

Любая технология имеет свои особенности и этические проблемы, но искусственный интеллект (ИИ) вызывает еще большее потрясение, поскольку он особенно быстро обрабатывает информацию и обладает способностью к действию, которую даем ему мы, люди. El País побеседовал на эту тему с Гонсало Женовой, доцентом кафедры компьютерных наук Университета Карлоса III в Мадриде (Испания), который находился в Уругвае по приглашению Университета Монтевидео (УМ). Эксперт подчеркнула особенность генеративного ИИ (такого, как ChatGPT): последствия отданных ему команд невозможно полностью предугадать, поскольку система очень сложна; отсюда и ее риск. «ИИ создает те же проблемы, что и другие технологии, но в усиленном виде», - сказал он. Что можно сделать перед лицом такой технологии? «Нужно действовать медленно, спокойно думать о подкреплении и механизмах безопасности, чтобы противостоять любым вредоносным или неожиданным эффектам, которые могут возникнуть при использовании ИИ, но это нелегко, потому что каждый стремится получить свою долю власти», - ответил он. Генова также затронул тему взаимоотношений между этикой и правом - областями, которые не всегда совпадают. В этом смысле он предупредил, что «закон часто является рукой этики». «В ИИ есть поведение и практика, которые не совсем понятны, и сегодня ведутся дебаты о том, должны ли законы запрещать их», - добавил он, приведя пример генетического анализа с помощью ИИ, учитывая, что пациенты делятся генетической информацией не только о себе, но и о своих близких родственниках, что приводит к этической проблеме. «Можно установить ограничения с помощью законов, но если они слишком строги, то становятся контрпродуктивными», - сказал он. Другие спорные этические вопросы выходят за рамки использования ИИ и касаются того, как загружаются данные или чем питается ИИ, поскольку алгоритмы могут быть предвзятыми и давать опасные результаты (в плане идеологического, политического, религиозного, гендерного и другого разнообразия). Генуя рассматривает технологию как продолжение человека. Храня информацию, ИИ как бы расширяет память человеческого мозга. Обрабатывая данные или выполняя умственные расчеты, он также является продолжением человеческого разума. «Но функции, выполняемые технологиями, поразительно намного быстрее человеческих, и ИИ может сделать некоторые из наших способностей бесполезными», - предупредил Генова. В этом контексте он отметил, что люди делегируют технологиям так много функций, что в итоге теряют свои возможности. Например, чувство местоположения или даже умение читать бумажные карты теряется с появлением GPS в автомобилях и мобильных телефонах, говорит он. «Мы передаем функции устройствам и постепенно перестаем обладать ими сами, хотя верно и то, что технологии позволяют нам развивать другие навыки», - заметил эксперт, имея в виду процветание искусственного интеллекта, который, по его словам, „вторгается“ во все сферы человеческой деятельности. Генова рекомендовал обратить особое внимание на отношения, которые складываются у каждого человека с ИИ, так как это может привести к обучению (например, как писать более качественные тексты) или к полному «отдыху» (позволяя ИИ писать за нас, как простой и прямой заменитель человека). «Позитивным шагом было бы создание приложений (apps), которые явно направлены на расширение возможностей человека и не заменяют и не отнимают его способности», - предложил он. «Это этический вопрос - не лишать людей их возможностей», - добавил он. По прогнозам эксперта, генеративные системы ИИ (те, что генерируют стихи, картины, скульптуры, креативные видео и т. д.) и дилеммы, возникающие в связи с этим с этической точки зрения (например, вопросы о том, кто является автором этих творений, появляющихся с помощью новых технологий, и т. д.), далеко не исчезнут в будущем. Он также считает, что юридические сложности в регулировании этих вопросов сохранятся еще долгое время, хотя и выразил уверенность: «В другие периоды истории считалось, что регулирование других разрушительных технологий невозможно из-за их сложности или потому, что говорили, что это приведет к ограничению свободы выражения мнений, но это удалось». Генова рекомендовала, чтобы на этом неопределенном пути, куда приведет нас ИИ (его очень трудно предсказать), прозрачность была основополагающей, а также укрепление гражданского образования и общей культуры граждан в отношении ИИ, что облегчит процесс в целом. «Проблема ИИ не является исключительной или ограниченной для какого-то конкретного сообщества, как это часто утверждается. Мы все можем и должны понимать, о чем идет речь», - призвал он. «Нельзя, чтобы люди продолжали говорить, что ИИ - это «магия». Это «инженерия»», - заключил он. В статье «Есть ли у университета этическая миссия в обществе» Генова утверждает, что академические круги должны взять на себя эту роль, особенно перед лицом новых технологий, таких как ИИ. «Для многих университет - это «храм разума». Как же мы будем преподавать этику в университете - настоящую этику, а не просто курьезную картину, - если общество в значительной степени скептически относится к рациональности этики? В любом случае, я считаю, что быть «нейтральным» - это ошибка, потому что это усиливает скептицизм. [...] По его мнению, в этом вопросе нет необходимости быть «полностью уверенным» или «обладающим истиной» - как нет ее ни в одной университетской дисциплине, - поскольку завоевание истины - это «коллективная задача, которая никогда не заканчивается». По его мнению, университет должен объявить себя не нейтральной территорией и не укреплять дебаты о том, что этика не обязательно является основополагающей частью его задачи. Закон Европейского союза (ЕС) об искусственном интеллекте - это первый в мире комплексный нормативный акт по искусственному интеллекту, принятый крупным регулирующим органом. Этот закон классифицирует приложения ИИ по трем категориям риска: во-первых, он запрещает приложения и системы, представляющие «неприемлемый риск», такие как государственные системы социального скоринга, которые, например, используются в Китае. Во-вторых, есть приложения, которые считаются «высоким риском», например, инструменты для сканирования резюме и ранжирования кандидатов на работу, к которым предъявляются особые требования законодательства. И в-третьих, есть приложения, которые не запрещены в явном виде и не входят в предыдущие категории, и которые по сути остаются нерегулируемыми. Подобно Общему регламенту ЕС по защите данных (GDPR) 2018 года, закон ЕС об искусственном интеллекте может стать глобальным стандартом, определяющим степень его положительного или отрицательного влияния на жизнь. В качестве примера стоит отметить, что все системы удаленной биометрической идентификации считаются в ЕС системами повышенного риска и к ним предъявляются строгие требования. Например, использование такой идентификации в общедоступных местах в правоохранительных целях в принципе запрещено. Ограниченные исключения строго определены и регламентированы, например, когда это необходимо для поиска пропавшего ребенка, предотвращения конкретной и непосредственной террористической угрозы или для обнаружения, определения местонахождения, идентификации или судебного преследования преступника или подозреваемого в совершении серьезного преступления. В таких случаях их использование должно быть санкционировано судебным или иным независимым органом и иметь соответствующие ограничения по времени, географическому охвату и базам данных, с которыми проводятся консультации. Другие страны, не входящие в блок, добиваются прогресса в этой области, при этом европейский регламент является наиболее эффективным руководством и источником вдохновения для правительств и экспертов других стран.