Преступники, хорошие парни и иностранные шпионы: хакеры повсюду сейчас используют ИИ

Этим летом российские хакеры придали новый поворот шквалу фишинговых писем, отправленных украинцам. Хакеры добавили в письма вложения, содержащие программу искусственного интеллекта. При установке эта программа автоматически искала на компьютерах жертв конфиденциальные файлы и отправляла их в Москву. Эта кампания, подробно описанная в июле в технических отчетах украинского правительства и нескольких компаний, занимающихся кибербезопасностью, является первым известным случаем, когда российская разведка была поймана на создании вредоносного кода с использованием больших языковых моделей (LLM) — типа чат-ботов с искусственным интеллектом, которые стали повсеместными в корпоративной культуре. Эти российские шпионы не одиноки. В последние месяцы хакеры всех мастей — киберпреступники, шпионы, исследователи и защитники корпораций — начали использовать инструменты искусственного интеллекта в своей работе. LLM, такие как ChatGPT, по-прежнему подвержены ошибкам. Но они стали замечательно умелыми в обработке языковых инструкций и переводе простого языка в компьютерный код, а также в идентификации и резюмировании документов. Пока что эта технология не произвела революцию в хакинге, превратив полных новичков в экспертов, и не позволила потенциальным кибертеррористам отключить электрическую сеть. Но она делает опытных хакеров лучше и быстрее. Компании и исследователи в области кибербезопасности теперь тоже используют ИИ, что усиливает эскалацию игры в кошки-мышки между хакерами-нападающими, которые находят и используют уязвимости программного обеспечения, и защитниками, которые пытаются исправить их первыми. «Это только начало. Возможно, мы уже приближаемся к середине этого начала», — сказала Хизер Адкинс, вице-президент Google по вопросам безопасности. В 2024 году команда Адкинс приступила к реализации проекта по использованию LLM Google, Gemini, для поиска важных уязвимостей в программном обеспечении, или багов, до того, как их обнаружат преступные хакеры. В начале этого месяца Адкинс объявила, что ее команда на данный момент обнаружила по крайней мере 20 важных упущенных ошибок в широко используемом программном обеспечении и уведомила компании, чтобы они могли их исправить. Этот процесс продолжается. По ее словам, ни одна из уязвимостей не была шокирующей или такой, которую могла обнаружить только машина. Но с помощью ИИ этот процесс просто ускоряется. «Я не видела, чтобы кто-то нашел что-то новое», — сказала она. «Он просто делает то, что мы уже умеем делать. Но это будет развиваться». Адам Мейерс, старший вице-президент компании CrowdStrike, занимающейся кибербезопасностью, сказал, что его компания не только использует ИИ, чтобы помогать людям, которые считают, что их взломали, но и видит все больше доказательств его использования китайскими, российскими, иранскими и преступными хакерами, которых отслеживает его компания. «Более продвинутые противники используют его в своих интересах», — сказал он. «Мы видим это все чаще и чаще с каждым днем», — сказал он NBC News. Этот сдвиг только начинает догонять ажиотаж, который пронизывает индустрию кибербезопасности и искусственного интеллекта в течение многих лет, особенно с момента представления ChatGPT публике в 2022 году. Эти инструменты не всегда оказывались эффективными, и некоторые исследователи в области кибербезопасности жаловались на то, что потенциальные хакеры попадаются на поддельные обнаружения уязвимостей, сгенерированные с помощью ИИ. Мошенники и социальные инженеры — люди, участвующие в хакерских операциях, которые притворяются кем-то другим или пишут убедительные фишинговые письма — используют LLM, чтобы выглядеть более убедительно, по крайней мере, с 2024 года. Но использование ИИ для прямого взлома целей только начинает набирать обороты, сказал Уилл Пирс, генеральный директор DreadNode, одной из немногих новых компаний, специализирующихся на взломе с помощью LLM. Причина, по его словам, проста: технология наконец-то начала оправдывать ожидания. «На данный момент технология и модели действительно очень хороши», — сказал он. Менее двух лет назад автоматизированные инструменты взлома с помощью ИИ требовали значительных доработок, чтобы работать должным образом, но теперь они гораздо более совершенны, сказал Пирс NBC News. Другой стартап, созданный для взлома с помощью ИИ, Xbow, в июне вошел в историю, став первым ИИ, поднявшимся на вершину рейтинга HackerOne U.S., живого табло хакеров со всего мира, которое с 2016 года отслеживает хакеров, выявляющих наиболее важные уязвимости, и дает им право похвастаться своими достижениями. На прошлой неделе HackerOne добавил новую категорию для групп, автоматизирующих инструменты для взлома с помощью ИИ, чтобы отличать их от отдельных исследователей-людей. Xbow по-прежнему лидирует в этой категории. Хакеры и специалисты по кибербезопасности пока не пришли к единому мнению о том, кому в конечном итоге ИИ принесет больше пользы: злоумышленникам или защитникам. Но на данный момент, похоже, что защитники выигрывают. Алексей Булазель, старший директор по кибербезопасности в Совете национальной безопасности Белого дома, заявил на панельной дискуссии на хакерской конференции Def Con в Лас-Вегасе на прошлой неделе, что эта тенденция сохранится, по крайней мере, до тех пор, пока в США будут находиться большинство самых передовых технологических компаний мира. «Я твердо убежден, что ИИ будет более выгоден для защитников, чем для нападающих», — сказал Булазел. Он отметил, что хакеры редко находят серьезные уязвимости в крупных американских технологических компаниях, а преступники часто взламывают компьютеры, находя небольшие, упущенные из виду уязвимости в небольших компаниях, которые не имеют элитных команд по кибербезопасности. ИИ особенно полезен для обнаружения этих ошибок раньше преступников, сказал он. «То, в чем ИИ преуспевает — выявление уязвимостей с минимальными затратами и простыми средствами — действительно демократизирует доступ к информации об уязвимостях», — сказал Булазель. Однако эта тенденция может не сохраниться по мере развития технологии. Одна из причин заключается в том, что на данный момент не существует бесплатного автоматического инструмента для взлома или тестирования на проникновение, в котором был бы использован ИИ. Такие инструменты уже широко доступны в Интернете, номинально в качестве программ, которые тестируют на наличие уязвимостей в методах, используемых преступными хакерами. Если кто-то внедрит в них передовой LLM и они станут свободно доступными, это, вероятно, будет означать открытый сезон для программ небольших компаний, сказал Эдкинс из Google. «Я думаю, что также разумно предположить, что в какой-то момент кто-то выпустит [такой инструмент]», — сказала она. «Именно в этот момент, на мой взгляд, это станет немного опасным». Мейерс из CrowdStrike сказал, что рост агентного ИИ — инструментов, которые выполняют более сложные задачи, такие как написание и отправка электронных писем или выполнение кода, который программирует — может оказаться серьезным риском для кибербезопасности. «Агентный ИИ — это ИИ, который может действовать от вашего имени, верно? Это станет следующей внутренней угрозой, потому что, когда организации внедряют такой агентный ИИ, у них нет встроенных защитных механизмов, которые могли бы помешать кому-то злоупотребить им», — сказал он.