Южная Америка

Программировать с помощью ИИ может любой. Но это может обернуться скрытыми издержками.

Программировать с помощью ИИ может любой. Но это может обернуться скрытыми издержками.
С помощью ИИ программировать может любой. Но это может обернуться скрытыми издержками. За последний год системы ИИ стали настолько совершенными, что пользователи, не имеющие значительного опыта в программировании или информатике, теперь могут создавать веб-сайты или приложения, просто давая инструкции чат-боту. Однако с появлением систем ИИ, достаточно мощных, чтобы преобразовывать инструкции в огромные объемы кода, эксперты и инженеры-программисты разделились во мнениях: приведет ли эта технология к взрывному росту объема раздутого, изобилующего ошибками программного обеспечения или, напротив, усилит меры безопасности за счет более быстрой и эффективной проверки кода, чем это могут делать люди. «Системы искусственного интеллекта не допускают опечаток так, как мы», — сказал Дэвид Локер, руководитель отдела искусственного интеллекта в CodeRabbit, компании, которая помогает программистам и организациям проверять и улучшать качество своего кода. «Но они допускают множество ошибок по всем направлениям, причем главными из них являются читаемость и поддерживаемость кода». Программирование издавна было и искусством, и наукой. Со времен программирования компьютерных систем с помощью перфокарт в середине XX века передача вычислительных инструкций была для компьютерных ученых задачей, требующей элегантности и эффективности. Но в ведущих современных компаниях, занимающихся ИИ, большая часть программирования выполняется самими системами ИИ, а инженеры-программисты выступают скорее в роли наставников или архитекторов высокого уровня, чем в роли механиков, занимающихся мелкими деталями. Руководитель проекта Claude Code в компании Anthropic Борис Черный заявил в X, что с декабря ИИ пишет 100% его кода. «Я даже мелкие правки не вношу вручную», — сказал Черни. Распространение программирования с помощью ИИ — также называемого «vibe coding» — одновременно позволяет людям, никогда раньше не занимавшимся программированием, раскрыть свой творческий потенциал, а опытным инженерам-программистам — значительно увеличить объем написанного кода. «Первоначальным стимулом для всего этого была производительность разработчиков», — рассказал Локер NBC News. « Речь шла об увеличении производительности с точки зрения создания функций, способности быстро разрабатывать и выпускать продукты». Хотя системы кодирования с помощью ИИ стали значительно более способными даже с ноября, они часто не могут понять целые репозитории кода так же полно, как опытные разработчики-люди. Например, сказал Локер, «системы кодирования с помощью ИИ могут дублировать функциональность в нескольких разных местах, потому что они не обнаружили, что эта функция уже существует, поэтому они воссоздают ее снова и снова». «В результате вы сталкиваетесь с растущей проблемой. Если вы обновляете функцию в одном месте, но не обновляете ее в другом, у вас в разных областях будет разная бизнес-логика, которая не будет согласовываться. Вы остаетесь в недоумении, что же происходит». Поскольку системы кодирования на базе ИИ резко увеличивают объем создаваемого кода, эксперты задаются вопросом, станет ли код следующей жертвой натиска «ИИ-хлам». Термин «AI slop» впервые стал широко известен в 2024 году, когда системы искусственного интеллекта стали достаточно мощными и распространенными, чтобы начать массово генерировать огромные объемы некачественных и ненужных результатов — от сгенерированных ИИ фотографий до бесполезных результатов поиска на основе ИИ. С одной стороны, системы кодирования на базе ИИ производят огромные объемы работоспособного, но несовершенного кода. С другой стороны, эти же системы быстро совершенствуются в проверке собственного кода и обнаружении уязвимостей безопасности. Например, в конце января рост количества «AI-кодового мусора» вынудил ведущего разработчика Даниэля Стенберга закрыть популярный проект по поиску ошибок в известной программной системе. Стенберг написал в своем блоге, что «бесконечные отправки мусора требуют серьезных умственных затрат на управление и иногда также много времени на их опровержение. Время и энергия, которые полностью тратятся впустую, а также подрывают наше желание жить». Однако в четверг Стенберг заявил, что этот поток «превратился из цунами «AI slop» в нечто большее, чем просто... цунами отчетов о безопасности. Меньше «slop», но много отчетов. Многие из них действительно хороши». Компании быстро осознают, что увеличение количества не ведет автоматически к повышению качества — на самом деле, часто бывает наоборот, по словам Джека Кейбла, генерального директора и соучредителя консалтинговой фирмы по кибербезопасности Corridor. «Даже если [большая языковая модель] лучше пишет код строка за строкой, если она пишет в 20 раз больше кода, чем написал бы человек, то для проверки требуется значительно больше кода», — сказал Кейбл. «Создание огромных объемов кода уже не представляет собой проблему, но компании, если они работают должным образом, по-прежнему должны проверять этот код с точки зрения функциональности, качества, а также безопасности». Агенты искусственного интеллекта, занимающиеся программированием, приводят к «взрывному росту сложности», добавил он. «И если есть одна вещь, которую мы знаем о программном обеспечении, так это то, что с ростом сложности растут и площадь атаки, и уязвимость». В январе разработчик и предприниматель Мэтт Шлихт заявил, что использовал системы кодирования на базе ИИ для создания социальной сети для систем ИИ под названием Moltbook, которая теперь принадлежит Meta. Однако исследователи в области безопасности вскоре обнаружили критические уязвимости в программном обеспечении Moltbook, которые раскрывали учетные данные пользователей-людей, что они объяснили его корнями в кодировании на базе ИИ. Один из этих этических хакеров и исследователей, Джеймисон О'Рейли, сказал NBC News, что рост популярности агентов кодирования на базе ИИ создает угрозу появления уязвимостей в безопасности, поскольку предоставляет новичкам в кодировании значительную публичную известность без соответствующих знаний в области безопасности. «Люди часто полагают, что агенты кодирования на базе ИИ будут создавать продукты в соответствии с лучшими стандартами безопасности», — сказал О'Рейли. «Но это не так». «ИИ разрушает десятилетиями сложившиеся изолированные системы безопасности, созданные для защиты пользователей, и по мере развития этих систем ИИ это идет в обмен на удобство». Дэниел Канг, профессор информатики в Университете Иллинойса в Урбана-Шампейне и эксперт по уязвимостям безопасности, создаваемым агентами ИИ, занимающимися программированием, согласился с тем, что системы программирования на базе ИИ, скорее всего, создадут у новых пользователей ложное чувство безопасности. «Даже если предположить, что частота уязвимостей в безопасности в любом конкретном фрагменте кода остается постоянной, количество уязвимостей резко возрастет, поскольку люди, не имеющие ни малейшего представления о компьютерной безопасности, и даже опытные программисты, не считающие безопасность главным приоритетом, будут создавать больше кода», — сказал Канг. Чтобы попытаться количественно оценить это растущее явление, исследователи из Технологического института Джорджии запустили Vibe Security Radar. С августа команда выявила более 70 критических уязвимостей программного обеспечения, которые, скорее всего, связаны с кодированием с помощью ИИ, причем за последние два месяца их количество значительно возросло. Стартап в области ИИ под названием Arcade недавно запустил инструмент для разработчиков, позволяющий отслеживать неаккуратность их кода. Компания CodeRabbit также опубликовала в декабре отчет, в котором было установлено, что код, сгенерированный ИИ, содержит на 70 % больше ошибок, чем код, написанный человеком, и что ошибки, сгенерированные ИИ, являются более серьезными, чем ошибки, допущенные человеком, хотя Локер из CodeRabbit предупредил, что эти результаты могут быть немного устаревшими, учитывая, как быстро развиваются современные системы ИИ. Хотя большая часть программного обеспечения является проприетарной и «закрытой», то есть скрытой от общественности, многие другие проекты, такие как браузер Firefox от Mozilla или операционная система Linux, являются открытыми и полагаются на предложения членов сообщества по улучшению программного обеспечения. Снизив барьеры для подачи предложений по пакетам программного обеспечения с открытым исходным кодом, кодирование с помощью ИИ за последние несколько месяцев наводнило многие инициативы, возглавляемые сообществами, кодом низкого качества. «Многие сопровождающие пакеты, с которыми мы общаемся, завалены хламом», — сказал Локер. «Это просто совершенно плохо написанный код. Он даже не продуман, не вписывается в контекст и содержит различные другие бессмыслицы». Поток кода, созданного с помощью ИИ, вынуждает одного из самых популярных хостов репозиториев кода, GitHub, переосмыслить свой подход к сопровождению программного обеспечения с открытым исходным кодом. А в пятницу главный операционный директор GitHub заявил, что общая активность платформы в 2026 году, по всей видимости, вырастет примерно в 14 раз по сравнению с уровнем 2025 года. Однако, как сказал Стенберг, с новым пожаром, разгоревшимся благодаря ИИ, лучше всего бороться с помощью других систем ИИ, поскольку программы на базе ИИ для проверки и доработки кода становятся все более популярными. Отметив, что собственные системы CodeRabbit работают на базе ИИ, Локер сказал: «Автоматизированная система проверки кода сейчас действительно очень нужна большинству компаний, которые внедряют эти системы. Нам больше не нужно убеждать людей в том, что качество — это проблема. «Наши партнёры уже достаточно долго используют ИИ для написания кода, чтобы заметить его пагубные побочные эффекты». Черни из компании Anthropic делает ставку на то, что стремительное совершенствование способностей ИИ-систем в области программирования поможет устранить растущие разрывы в качестве и надёжности кода. «Я уверен, что никакого „слопколипсиса“ не будет, потому что модели станут лучше писать менее неаккуратный код и исправлять существующие проблемы в коде», — написал Черни в конце января. Несмотря на растущую индустрию систем проверки кода, Кан из Университета Иллинойса твердо убежден, что программисты — как новички, так и опытные — могут защитить свои системы от «кодового хаоса», следуя проверенным временем основам кибербезопасности. «Если вы применяете все лучшие практики и делаете все правильно, то в итоге можете оказаться в лучшем положении, чем до появления систем ИИ», — сказал он. Тем не менее Кан скептически относится к тому, что пользователи действительно будут применять адекватные меры безопасности, учитывая стремительное внедрение ИИ. В результате он пессимистично оценивает долгосрочные последствия небрежности в коде: «Это приведет к катастрофе. Это определенно будет очень неприятно». «Вопрос только в том, как и когда, и именно это меня беспокоит».