Южная Америка

Программное обеспечение для клонирования голоса ИИ имеет хрупкие ограждения, говорится в докладе

Программное обеспечение для клонирования голоса ИИ имеет хрупкие ограждения, говорится в докладе
Большинство ведущих программ клонирования голоса с помощью искусственного интеллекта не имеют серьезных барьеров, препятствующих недобросовестному выдаванию себя за других людей, говорится в исследовании Consumer Reports. Технология искусственного интеллекта для клонирования голоса в последние годы достигла значительных успехов, и многие сервисы могут эффективно подражать голосу человека, используя всего несколько секунд аудиозаписи. В прошлом году во время праймериз демократов произошла вспышка, когда на телефоны избирателей посыпались робозвонки с фальшивым Джо Байденом, призывающие их не голосовать. Политический консультант, признавшийся в организации этой схемы, был оштрафован на 6 миллионов долл., а Федеральная комиссия по связи с тех пор запретила робозвонки, сгенерированные искусственным интеллектом. Новое исследование шести ведущих общедоступных инструментов для клонирования голоса с помощью ИИ показало, что пять из них имеют легко обходимые средства защиты, что позволяет легко клонировать голос человека без его согласия. Программное обеспечение для обнаружения поддельного звука часто не может отличить реальный голос от синтетического. Генеративный ИИ, имитирующий человеческие качества, такие как внешность, почерк и голос, - новая и быстро развивающаяся технология, и эта отрасль практически не имеет федеральных норм. Большинство этических норм и мер безопасности в отрасли в целом устанавливаются самостоятельно. Президент Джо Байден включил некоторые требования по безопасности в свой указ об ИИ, который он подписал в 2023 году, но президент Дональд Трамп отменил этот указ, когда вступил в должность. Технология клонирования голоса работает следующим образом: берется аудиозапись речи человека, а затем его голос экстраполируется в синтетический аудиофайл. При отсутствии необходимых гарантий любой, кто зарегистрирует аккаунт, может просто загрузить аудиозапись речи человека, например из видеоролика на TikTok или YouTube, и заставить сервис имитировать его. Четыре сервиса - ElevenLabs, Speechify, PlayHT и Lovo - просто требуют поставить галочку в поле, где указано, что человек, чей голос клонируется, дал на это разрешение. Еще один сервис, Resemble AI, требует записи звука в реальном времени, а не позволяет человеку просто загрузить запись. Но Consumer Reports удалось легко обойти это ограничение, просто воспроизведя аудиозапись с компьютера. Лишь шестой сервис, Descript, имеет несколько эффективную защиту. Он требует, чтобы потенциальный клонировщик записал специальное заявление о согласии, которое трудно подделать, разве что клонируя через другой сервис. Все шесть сервисов доступны для общественности через их веб-сайты. Только Eleven Labs и Resemble AI берут деньги - соответственно 5 долл. и 1 долл. - за создание индивидуального голосового клона. Остальные сервисы бесплатны. Некоторые из компаний утверждают, что злоупотребление их инструментом может привести к серьезным негативным последствиям. «Мы признаем возможность неправомерного использования этого мощного инструмента и внедрили надежные меры защиты, чтобы предотвратить создание глубоких подделок и защитить от подражания голосу», - заявил представитель компании Resemble AI в заявлении для NBC News, отправленном по электронной почте. У клонирования голоса ИИ есть законное применение, включая помощь людям с ограниченными возможностями и создание аудиопереводов людей, говорящих на разных языках. Но есть и огромный потенциал для нанесения вреда, говорит Сара Майерс Уэст, соисполнительный директор AI Now Institute, аналитического центра, который занимается изучением последствий политики в области ИИ. «Очевидно, что это может быть использовано для мошенничества, афер и дезинформации, например, для выдачи себя за институциональных деятелей», - сказала Вест в интервью NBC News. Исследований о том, насколько часто ИИ используется в мошенничествах с использованием аудиозаписей, мало. В так называемых аферах с бабушками и дедушками преступник звонит человеку, утверждая, что с членом его семьи произошла чрезвычайная ситуация, например, он был похищен, арестован или получил травму. Федеральная торговая комиссия США предупредила, что в таких мошенничествах может использоваться искусственный интеллект, хотя аферы появились еще до появления этой технологии. Клонированные голоса использовались для создания музыки без разрешения изображенного исполнителя, как это произошло с вирусной песней 2023 года, которая, как оказалось, была написана Дрейком и Уикндом, а некоторые музыканты пытались контролировать свой имидж, когда другие люди выпускали музыку с их голосами.