Южная Америка

Чтобы избежать обвинений в мошенничестве с помощью ИИ, студенты колледжей обращаются к ИИ

Чтобы избежать обвинений в мошенничестве с помощью ИИ, студенты колледжей обращаются к ИИ
В университетских кампусах по всей территории США внедрение генеративного искусственного интеллекта вызвало своего рода гонку вооружений. Быстрое освоение ИИ молодыми людьми вызвало волну беспокойства по поводу того, что студенты могут обманывать в университете, что побудило многих профессоров проверять работы студентов с помощью онлайн-детекторов ИИ, которые проверяют, использовали ли студенты большие языковые модели для написания своих работ. Некоторые университеты заявляют, что таким образом поймали сотни студентов на мошенничестве. Однако с момента своего появления несколько лет назад детекторы ИИ неоднократно подвергались критике за ненадежность и склонность по ошибке выявлять не носителей английского языка как подозреваемых в плагиате. Кроме того, все больше студентов заявляют, что их работы были ложно выявлены как написанные ИИ — некоторые из них подали иски против университетов за эмоциональный стресс и наказания, с которыми, по их словам, они столкнулись в результате. NBC News поговорила с десятью студентами и преподавателями, которые рассказали, что оказались в эпицентре обостряющейся войны между инструментами искусственного интеллекта. На фоне обвинений в списывании с помощью искусственного интеллекта некоторые студенты обращаются к новой группе генеративных инструментов искусственного интеллекта, называемых «гуманизаторами». Эти инструменты сканируют эссе и предлагают способы изменения текста, чтобы он не воспринимался как созданный искусственным интеллектом. Некоторые из них бесплатны, а другие стоят около 20 долл. в месяц. Некоторые пользователи инструментов-гуманизаторов полагаются на них, чтобы избежать обнаружения мошенничества, в то время как другие заявляют, что вообще не используют ИИ в своей работе, но хотят быть уверены, что их не обвинят в использовании ИИ программы-детекторы ИИ. В ответ на это, а также в связи с постоянным совершенствованием чат-ботов, такие компании, как Turnitin и GPTZero, обновили свое программное обеспечение для обнаружения ИИ с целью выявления текстов, прошедших через гуманизатор. Они также запустили приложения, которые студенты могут использовать для отслеживания своей активности в браузере или истории написания текстов, чтобы доказать, что они сами написали материал, хотя некоторые гуманизаторы могут набирать текст, который пользователь хочет скопировать и вставить, на случай, если будут отслеживаться нажатия клавиш студента. «Студенты сейчас пытаются доказать, что они люди, даже если они никогда не прикасались к ИИ», — сказала Эрин Рамирес, доцент кафедры образования Калифорнийского государственного университета в Монтерей-Бэй. «Так где мы находимся? Мы просто в спирали, которая никогда не закончится». Конкуренция между детекторами ИИ и программами помощи в написании текстов усиливается из-за повышенной обеспокоенности по поводу списывания в университетских кампусах. Это показывает, насколько неизбежным стал ИИ в университетах, даже для студентов, которые не хотят его использовать, и для преподавателей, которые хотели бы не контролировать его использование. «Если мы пишем правильно, нас обвиняют в использовании ИИ — это абсолютно смешно», — говорит Алдан Крео, аспирант из Испании, изучающий детекторы ИИ в Калифорнийском университете в Сан-Диего. «В долгосрочной перспективе, я думаю, это станет большой проблемой». У вас есть история, связанная с технологиями в образовании? Свяжитесь с репортером Тайлером Кингкейдом В ноябре ассистент преподавателя курса по науке о данных обвинил Крео в использовании ИИ для написания отчета. Крео объяснил ассистенту, что у него есть привычка шаг за шагом объяснять, как он рассуждает над проблемой, что, как известно, делает ChatGPT, согласно копии сообщений, которыми он обменивался с ассистентом. В конце концов, его оценка была исправлена, но, чтобы избежать новой ссоры, Крео сказал, что иногда он «упрощает» свою работу, оставляя слова с орфографическими ошибками или используя испанские синтаксические конструкции, которые не являются правильными в английском языке. А теперь Крео заранее проверяет все свои материалы с помощью детектора искусственного интеллекта. «Я должен делать все, что в моих силах, чтобы показать, что я действительно сам пишу свои домашние задания», — сказал он. «Как ИИ мог все это придумать?» В худшем случае стресс от обвинений заставил некоторых студентов бросить учебу. Бриттани Карр получила неудовлетворительные оценки за три задания, которые она выполнила как студентка заочного отделения Либерти Университета, частной евангелической школы в Вирджинии, которая имеет одно из крупнейших онлайн-сообществ в США, потому что они были отмечены детектором ИИ. Она показала историю своих правок, в том числе то, как она сначала написала одну из них от руки в тетради, согласно скриншотам электронных писем и сообщений, которыми она обменивалась со своими профессорами. «Как Эл мог все это придумать?» — написала Карр в электронном письме от 5 декабря. «Я рассказала о своем диагнозе рака, депрессии и своем пути, и вы верите, что это Ала?». Ее доказательства оказались недостаточными — школа социальной работы все равно потребовала от нее пройти курс «Письмо с честностью» и подписать заявление с извинениями за использование ИИ, как показывают электронные письма. «Это очень странное чувство, потому что школа использует ИИ, чтобы сказать нам, что мы используем ИИ», — сказала она. Это ее очень напрягало. Карр беспокоилась, что очередное обвинение в мошенничестве может привести к тому, что Департамент по делам ветеранов лишит ее финансовой помощи. Чтобы избежать новых ложных обвинений, она пропустила все свои материалы через детектор ИИ Grammarly и изменила все выделенные им фрагменты, пока он не пришел к выводу, что все написано человеком. «Но мне кажется, что мои тексты не дают никакого понимания — я пишу только для того, чтобы не вызывать подозрений у детекторов ИИ», — сказала она. После окончания семестра Карр решила покинуть Liberty. Она не знает, куда переведется. Университет Liberty, соучредителем которого является религиозный телеведущий Джерри Фалвелл-старший, заявил, что не комментирует дела отдельных студентов. В своем заявлении он сообщил, что все вопросы, касающиеся академической честности, рассматриваются «с осторожностью и осмотрительностью, с обеспечением процесса, в котором на первом месте стоят интересы студента». Наша цель — только успех наших студентов, и каждому студенту предоставляется исчерпывающий процесс для решения любых проблем, связанных с несправедливым обращением». Эрик Ван, вице-президент по исследованиям в Quillbot, компании, производящей детектор и гуманизатор, сказал, что такого рода опасения будут сохраняться, пока преподаватели не откажутся от автоматического снятия баллов и не начнут обсуждать со студентами, как они используют ИИ. Как только это произойдет, сказал Ван, «станет неважно, похоже ли вы на ИИ или нет, и вместо этого мы двинемся к миру, в котором мы будем задаваться вопросом, как мы используем эту технологию, но не теряем наше чувство человечности, наше чувство творчества и нашу способность создавать великие вещи самостоятельно». «Где проходит грань» В основе многих конфликтов, связанных с использованием студентами чат-ботов для списывания, лежит разногласие по поводу того, что считается чрезмерным использованием ИИ при выполнении домашних заданий. «Когда мы провели нашу первую программу обучения для 3000 учителей, — сказал Эдвард Тянь, генеральный директор и соучредитель GPTZero, — каждый учитель и каждый ученик по-разному понимали, что является приемлемым — просто понимание было очень фрагментарным, а затем оно стало еще более фрагментарным с ростом числа инструментов». Независимые анализы детекторов ИИ показывают неоднозначную точность. Одно из предварительных исследований, проведенных в прошлом году, показало, что GPTZero хорошо находит тексты, созданные с помощью ИИ, но «его надежность в различении текстов, написанных людьми, ограничена». Однако другие исследования показали, что детектор компании имеет почти идеальную точность. Между тем, отдельные исследования, проведенные в 2023 и 2024 годах, показали, что Turnitin имел низкий уровень ложных срабатываний, но не смог идентифицировать более четверти текстов, сгенерированных или перефразированных с помощью ИИ. Обе компании подчеркнули, что исследования, показывающие недостатки их детекторов, устарели из-за быстрого развития крупных языковых моделей и обновлений их собственного программного обеспечения для обнаружения. Показатели вероятности обнаружения ИИ часто неправильно интерпретируются пользователями, которые не понимают, что детекторы отмечают текст, который, вероятно, был сгенерирован ИИ, а не подтвержден как созданный чат-ботом, или не понимают, что для эффективной оценки некоторыми детекторами текст должен содержать не менее 300 слов. Turnitin рекомендует школам никогда не использовать свои инструменты в качестве единственного основания для принятия решения о том, обманывал ли ученик, сказала Энни Чечителли, директор по продуктам компании. Вместо этого следует поговорить с учеником о том, как и почему он использовал ИИ, сказала она. «Самый важный вопрос заключается не столько в обнаружении, сколько в том, где проходит грань», — сказала она. GPTZero также имеет на своей платформе предупреждение, в котором рекомендует преподавателям не использовать детектор для наказания студентов. Рамирес, профессор Калифорнийского государственного университета в Монтерей-Бэй, которая изучает возможности использования ИИ в системе K-12, сказала, что любой, кто полагается на детектор, никогда не проверял им свою собственную работу. «Похоже, что чем лучше вы пишете, тем больше ИИ считает вас ИИ», — сказала она. «Я проверяю свои собственные работы с помощью детекторов ИИ, потому что не хочу привлекать студентов к ответственности, не зная, как работает этот инструмент. И каждый раз он выдает мне 98 %, хотя я ни в коем случае не использовал ИИ». Преподаватели, администраторы и руководители компаний, занимающихся детектированием ИИ, сошлись во мнении, что профессора должны беседовать со студентами после того, как программа выдает их работы, чтобы никто не был ложно обвинен в академической нечестности. Но для этого нужно время, особенно когда у многих преподавателей каждый семестр десятки или даже сотни студентов, сказал Морган Санчес, доцент кафедры социологии Университета штата Сан-Хосе. «Это создает легкое напряжение, но в большей степени — дополнительную работу, которую мы должны выполнять без вознаграждения», — сказал Санчес. Бурный рост индустрии гуманизаторов Turnitin, которая уже четверть века предлагает инструменты, помогающие преподавателям выявлять плагиат, пытается не отставать от гуманизаторов. Компания рассматривает гуманизаторов как «растущую угрозу академической честности» и в августе прошлого года выпустила обновление программного обеспечения для обнаружения текстов, измененных с помощью этих инструментов. У компании есть список из 150 инструментов, которые берут до 50 долл. за подписку, чтобы корректировать текст так, чтобы он не был обнаружен детектором искусственного интеллекта. Чечителли назвал их компаниями, «единственной целью которых является помощь студентам в списывании». Спрос на эти инструменты резко вырос. Джозеф Тибо, основатель Cursive, компании, разрабатывающей программное обеспечение для обеспечения академической честности, отследил 43 гуманизатора, которые в октябре получили в общей сложности 33,9 миллиона посещений веб-сайтов. Тибо, который также издает информационный бюллетень о мошенничестве под названием «This Isn’t Fine» («Это нехорошо»), сказал, что, по его мнению, студентам лучше обеспечить сохранность истории изменений в Google Docs или Microsoft Word, чем использовать гуманизатор. Но в конечном итоге, по его мнению, грядущие изменения будут направлены на более тщательный контроль за выполнением студентами заданий. «Я думаю, мы должны спросить студентов, какому уровню контроля они готовы подвергнуться, чтобы мы могли действительно знать, что они учатся», — сказал он. «Необходимо заключить новое соглашение». Студенты контролируют сами себя Компания Superhuman, разработчик Grammarly, создала инструмент под названием Authorship, который включен в базовые учетные записи. Студенты могут включить его, чтобы контролировать себя в Google Docs или Microsoft Word во время написания и воспроизведения позже. Он покажет, какие разделы были набраны, вставлены из другого источника или сгенерированы с помощью ИИ. «Мы будем отслеживать, когда вы заходите в Википедию», — сказала Дженни Максвелл, руководитель отдела образования Superhuman. «Мы будем отслеживать, когда Grammarly делает предложения, а вы их принимаете, мы будем отслеживать, сколько времени вы потратили на эту работу или сколько сессий». По ее словам, только за последний год было создано 5 миллионов отчетов об авторстве, хотя в большинстве случаев они не подаются. Максвелл сказала, что идея создания этого инструмента была вдохновлена вирусным видео в TikTok от Марли Стивенс, которая описала хаос, вызванный, по ее словам, ложным обвинением в использовании ИИ, из-за которого она в 2023 году была отчислена из Университета Северной Джорджии. На самом деле, по словам Стивенс, она использовала расширение Grammarly только для исправления орфографических и пунктуационных ошибок. Университет отказался комментировать случай Стивенс, сославшись на федеральный закон о конфиденциальности, но в своем заявлении отметил, что «преподаватели сообщают конкретные рекомендации по использованию ИИ для различных классов, и эти рекомендации включены в учебные программы». Стивенс, которая закончила университет в прошлом месяце, сказала, что было сложно отслеживать политику каждого профессора в отношении использования ИИ, и становилось все труднее избегать написания текстов в программах, в которых он не был встроен. «Google имеет встроенный ИИ, Microsoft имеет встроенный ИИ — буквально все имеет ИИ», — сказала она. «И не пытайтесь доказать, что был использован ИИ, потому что в итоге вы потратите на это больше времени». Но Бертрам Галлант, который также является почетным президентом Международного центра академической честности, хочет, чтобы больше людей оказывали давление на правительство с целью регулирования ИИ и индустрии академического мошенничества, а также на технологические компании, чтобы студентам было сложнее использовать их продукты для мошенничества. «Мы продолжаем обращать внимание на то, что академические учреждения должны делать, чтобы решить проблемы, которые они не создавали», — сказала она.