Южная Америка

Не верить по умолчанию

Не верить по умолчанию
Пару лет назад, когда я начал взаимодействовать с LLM, то есть с моделями генеративного искусственного интеллекта, такими как ChatGPT, я начал свое исследование с вопроса, который считал простым: какой альбом является самым продаваемым в национальном роке? В тот момент, с большой красноречивостью и уверенностью, нахальный «вытащил гитару» и ответил, что это альбом Los Gatos, не принимая во внимание, что многие из нас выросли в эпоху A.I. (до Интернета) с El amor después del amor в качестве саундтрека нашей жизни. В данном случае я знал ответ и понял ошибку, но что происходит, когда мы задаем ему вопросы по темам, в которых не разбираемся, например, в моем случае по вопросам здоровья, сантехники или юридическим вопросам, и он дает нам «галлюцинацию», которую мы принимаем за правду? И это не только текст. С распространением моделей генерации изображений, таких как Nano Banana от Google, мы можем создать правдоподобную фотографию себя рядом с нашим любимым знаменитостью, не оставляя следов монтажа, но это также можно использовать для распространения цифровых лжи с земными последствиями. И мы уже знаем, что дезинформация распространяется быстрее, чем реальность. «В эпоху повседневного использования ИИ необходимо срочно отряхнуть пыль с навыка метапознания, нашей способности размышлять о собственных мыслях и мыслительных процессах. В данном случае для формирования рефлексивного сознания о том, как я принимаю решения с помощью ИИ. Речь идет не только о признании наших когнитивных искажений (автоматических ошибок восприятия, памяти или суждения), но и о понимании ошибочных суждений: рассуждений, которые звучат логично, но являются ошибочными в корне», — пояснил мне Хуан Мартин Бранчи, консультант по вопросам обучения. «ИИ не только смягчает, но и может усиливать искажения (подтверждение, доступность, закрепление) и порождать ошибочные суждения. Поэтому сегодня умение отличать правдоподобное от истинного является критически важным навыком. Например, в области аргументативных ошибок мы можем научить глаз обнаруживать логические ловушки, такие как «это сказано в академическом тоне, поэтому должно быть правдой» (апелляция к авторитету), «если это произошло однажды, то будет происходить всегда» (обобщение). Мышление второго порядка позволяет нам научиться не останавливаться на правдоподобном, а стремиться к истинному», — добавляет Бранчи. «Убедительное рассуждение может быть ошибочным. Форма соблазняет, но важно содержание. Если я позволяю себе сомневаться, отсеивать свою уверенность, прежде чем верить всему, что мне возвращает ИИ, мы даем ему роль инструмента, чтобы самим выполнять более важную роль — критически мыслить и использовать его результаты. Когда ваш друг ИИ даст вам следующий ответ, вы можете спросить себя не только о том, полезен ли он и красиво ли представлен результат, но и о том, «где здесь логическая ловушка или предвзятость?».