Что такое суверенный искусственный интеллект? Раги Бурхум
![Что такое суверенный искусственный интеллект? Раги Бурхум](https://sudamerica.ru/images/2024-04-21/66408.jpg)
Обычно информация, генерируемая человеком, имеет погрешности. В случае с искусственным интеллектом модель выдает результаты, напрямую связанные с обучающими данными, которые были использованы для ее "обучения". Но что происходит, когда данные, относящиеся к одной стране, интерпретируются по-другому - или противоречат данным другой страны? Например, если я использую только данные (книги, эссе, видео, аудио) с коммунистической интерпретацией мира, я получу только коммунистически предвзятые результаты. То же самое верно, если я проделаю то же самое упражнение с противоположной точкой зрения. Таким образом, организация, проводящая обучение, - будь то компания или страна - имеет большую власть над конечным результатом работы этой модели ИИ. Эта деталь уже оказывает влияние на то, как некоторые страны думают об ИИ на своей территории. Раги Бурхум, В ИИ существует понятие "фундаментальные модели" (ФМ). Это модели, которые были обучены на основе большого количества информации, в основном общей, для использования в качестве отправной точки. Организации, которые хотят использовать ИИ в своих внутренних потоках, бизнесе, стране и т. д., могут получить доступ к одной из таких моделей и использовать ее как есть. Процесс настройки в этом случае очень прост: модели даются лишь минимальные инструкции, указывающие, как она должна реагировать. Создание таких ФМ - совсем другая история. Их обучение требует нескольких миллионов долларов, в основном на энергию и оборудование. Не каждая организация может это сделать. Однако если организация хочет иметь индивидуальную модель, использующую ее собственные данные, у нее есть возможность "доработать" уже существующую FM. Это сокращенный процесс обучения, который просто добавляет или заменяет несколько слоев информации, и поэтому обходится гораздо дешевле (есть процессы, которые легко обходятся менее чем в 100 долларов США). Другими словами, очень доступный, некоторые из этих FM поставляются с предварительным обучением и такими гарантиями, как "возможность нулевого выстрела". Речь идет об инструкциях, которые были жестко закодированы в ФМ, чтобы он не сгенерировал "что-то плохое". Это может включать:Фильтрация входных данных: обнаружение и блокирование вредных или токсичных входных данных, таких как язык ненависти или насильственный контент.Фильтрация выходных данных: то же самое, что и выше, но на выходе.Классификаторы токсичности: выявление и пометка потенциально вредных выходных данных, что позволяет человеку просмотреть и вмешаться. Контекстуальное понимание: улучшение способности модели понимать контекст и нюансы языка, что снижает вероятность вредоносного вывода.Согласование ценностей: согласование целей модели с человеческими ценностями и этическими соображениями, чтобы предотвратить вредоносный вывод, Учитывая эти фильтры, стоит задать вопрос: кто решает, что ответ модели ИИ является "плохим" или "вредным", и с какими ценностями он должен быть согласован? Очевидно, что мы можем провести тысячу дискуссий на эту тему, но ответ прост: решает создатель Основополагающей модели! Но разве вы не упомянули, что существует альтернатива тонкой настройки для их калибровки? Да, но как бы ни был точен процесс настройки, который может помочь устранить некоторые меры предосторожности или изменить некоторые предубеждения, без более агрессивного (и дорогостоящего) процесса обучения он проиграет. На этой неделе Lockheed Martin выпустила видео, демонстрирующее самолет X-62A (модифицированный F-16), пилотируемый полностью ИИ, в воздушном бою с другим F-16. ИИ победил. Представьте себе ситуацию, когда X-62A говорит: "Извините, я не могу причинить вред другому человеку" и отказывается тренироваться или стрелять. Очевидно, Lockheed и американские военные решили тренировать модели с совсем другими гарантиями, чем GPT-4 (ChatGPT)! Когда мы говорим о суверенном искусственном интеллекте (ИИ), мы имеем в виду стратегическую разработку и внедрение технологий ИИ нацией для защиты своего суверенитета, безопасности, экономической конкурентоспособности и, в некоторой степени, культуры. Если страна собирается использовать ИИ в своих юридических процессах, вооруженных силах, кибербезопасности и т. д., она должна, по крайней мере, спросить себя, хочет ли она использовать ИИ другой страны. Индия, Япония, Франция, Канада, США, Китай и другие страны создают и расширяют свою инфраструктуру для создания суверенных моделей ИИ. Они создают центры обработки данных и электростанции для их питания. В Южной Америке Чили и Бразилия реализуют внутренние проекты, направленные на то же самое. Хотя эти вопросы обсуждаются в закрытых кругах, мы, несомненно, вступаем в новый этап, когда простого регулирования ИИ будет недостаточно. Мы увидим, как другие страны региона продвигаются в этом вопросе",