Южная Америка

Искусственный интеллект неправильно прочитал текст и придумал ложную научную концепцию, которая теперь фигурирует в других работах.

Искусственный интеллект неправильно прочитал текст и придумал ложную научную концепцию, которая теперь фигурирует в других работах.
Ключ часто находится в фундаменте. То же самое верно и для обучения искусственного интеллекта: если в фундаменте данных, на котором он работает, содержатся ошибки - какими бы незначительными они ни казались, - они фильтруются и множатся на каждом уровне системы, пока не выкристаллизуются в научные и академические результаты. Это можно продемонстрировать на необычном примере термина «вегетативная электронная микроскопия»: «Этот термин, претендующий на обозначение сложной научной концепции, далек от этого. На самом деле он представляет собой прямо противоположное: это плод ошибки в обработке информации, допущенной искусственным интеллектом, ошибки, которая со временем усилилась и теперь является частью внутренней структуры знаний систем, которую трудно исправить». По мнению The Conversation, такие постоянные ошибки называют «цифровыми ископаемыми»: «В частности, корни „вегетативной электронной микроскопии“ восходят к двум научным статьям, опубликованным в 1950 году в журнале Bacteriological Reviews, которые затем были оцифрованы системой распознавания текста. При сканировании страниц в формате двойной колонки программа прочитала «vegetative» в левой колонке и, на той же высоте, «electron microscopy» в правой колонке, и решила, что они связаны: таким образом, она создала неправильное выражение. Сегодня понятие «вегетативная электронная микроскопия» фигурирует в 22 научных публикациях, согласно Google Scholar, а также в газетных статьях, несмотря на то, что это понятие не имеет под собой никакой основы. Но настоящая проблема не в этом: сложность заключается в том, что ее трудно удалить из баз данных, главным образом из-за масштабов этих хранилищ информации. Они настолько обширны, что лишь немногие исследователи обладают достаточными ресурсами для работы с ними. Кроме того, непрозрачность компаний, использующих эти данные, еще больше усложняет задачу». „Все это оказывает непосредственное влияние на производство научных исследований, где искусственный интеллект уже стал обычным инструментом“. Самуэль Йоссеф, исследователь в этой области, объяснил LA NACION, что эта технология коренным образом меняет научные публикации. «Например, искусственный интеллект уже помогает в создании научных рукописей: он помогает в разработке черновиков, редактировании и организации контента, экономя время и ресурсы исследователей. Он также участвует в процессе рецензирования, которое традиционно проводят коллеги в данной области». Однако, по мнению Йосефа, наиболее глубокие изменения произойдут в области доступа к научным знаниям и их синтеза. «Инструменты ИИ способны глубоко прочитывать тысячи документов, обнаруживая закономерности и связи, на выявление которых у человека ушли бы месяцы. Это открывает путь к новым типам открытий - более междисциплинарным, более комплексным и потенциально более быстрым», - пояснил он. Таким образом, искусственный интеллект приносит огромную пользу исследованиям: он ускоряет выполнение повторяющихся задач, увеличивает глубину анализа и расширяет доступ к знаниям, позволяя большему числу специалистов готовить качественные публикации. Однако риски, связанные с его использованием, конкурируют с этими преимуществами. Игнасио Спиусас, исследователь из Conicet и Университета Сан-Андреса, объяснил, что первый риск - это проникновение галлюцинаций в научные публикации. «Поскольку это модели, которые генерируют язык, изучая его форму, а не содержание, проблема заключается в том, что они выражают эти галлюцинации с той же уверенностью, что и истинные факты», - сказал он. Как следствие, возможно распространение ложной информации или воспроизведение ошибочных представлений, которые искусственный интеллект включает в свою внутреннюю структуру и воспроизводит, не различая их достоверности, как это произошло с «вегетативной электронной микроскопией». Кроме того, предвзятость, присутствующая в структуре данных, усиливает необходимость постоянного контроля со стороны человека. Очевидно, что инструменты ИИ будут продолжать интегрироваться в научные процессы, однако профессиональный надзор должен оставаться четким, чтобы выявлять ошибки или галлюцинации, уже встроенные в системы. «Научные решения должны оставаться человеческими. ИИ - мощный инструмент, но ему не хватает рассудительности и ответственности», - предупреждает Йоссеф. «Игнорирование этого ограничения рискованно как для науки, так и для общества», - заключил он.»