Южная Америка

Страховые компании пытаются избежать крупных выплат, делая искусственный интеллект более безопасным

Страховые компании пытаются избежать крупных выплат, делая искусственный интеллект более безопасным
Вековая отрасль, которая когда-то делала автомобили и здания более безопасными, надеется, что сможет сделать то же самое для искусственного интеллекта. Несколько страховых компаний, в том числе стартапы и по крайней мере одна крупная страховая компания, начинают предлагать специализированное страховое покрытие на случай сбоев в работе ИИ-агентов — автономных систем, которые все чаще берут на себя задачи, которые раньше выполняли представители службы поддержки клиентов, рекрутеры, туристические агенты и т. п. Пока страховщики гонятся за новым прибыльным рынком, некоторые из них делают ставку на то, что смогут ввести меры регулирования и стандартизации в технологию, которая еще находится в зачаточном состоянии, но рассматривается многими в деловом мире как естественный следующий шаг. «Если взять, к примеру, автострахование, то широкое распространение ремней безопасности было в значительной степени обусловлено требованиями страховых компаний», — говорит Майкл фон Габленц, руководитель отдела страхования ИИ в многонациональной страховой компании Munich Re. «Если посмотреть на технологии прошлого и их развитие, то страхование сыграло в этом важную роль, и я считаю, что страхование может сыграть ту же роль и в случае с ИИ». Неудачи генеративного ИИ стали предметом странных заголовков в прессе, вдохновили судебные тяжбы и разрушили семьи, которые утверждают, что эта технология нанесла вред их близким. Но по мере того, как инструменты ИИ становятся все более распространенными в бизнесе и на личных устройствах, пользователи оказываются в затруднительном положении: доверять ли компаниям, которые сами себя регулируют, или ждать всестороннего государственного надзора. Некоторые страховые компании стремятся выйти на этот неразработанный рынок. Несмотря на то, что многие традиционные страховщики полностью избегают покрытия рисков, связанных с ИИ, а другие все еще колеблются, некоторые уже предлагают специализированное страховое покрытие для клиентов, использующих системы ИИ, с значительными выплатами в случае непредвиденных ситуаций. Эти компании утверждают, что страховое покрытие, которое исторически способствовало повышению безопасности в различных отраслях, также может создать эффективный рыночный стимул для разработчиков ИИ, чтобы сделать их продукты более безопасными. Раджив Даттани, соучредитель Artificial Intelligence Underwriting Company (AIUC), страхового стартапа, разрабатывающего стандарты для агентов ИИ, считает, что добровольных обязательств компаний недостаточно для управления рисками, связанными с ИИ, и что страхование может быть «удобным компромиссным решением» — формой надзора со стороны третьей стороны, которая не полагается исключительно на действия правительства. «Страховщики будут заинтересованы в точном отслеживании: каковы убытки? Как они происходят? Как часто они происходят? Насколько они серьезны? И затем, какие методы можно использовать, чтобы фактически предотвратить эти убытки или, по крайней мере, смягчить их?» — сказал Даттани. «Мы считаем, что страховые компании, поскольку они платят, в конечном итоге будут руководить большей частью этих исследований или, по крайней мере, финансировать их значительную часть». По мнению страховых компаний, которые страхуют такие инструменты, предприятия, использующие ИИ-агентов, подвержены широкому спектру рисков, включая утечку данных, взломы, галлюцинации, правонарушения и ущерб репутации. Чат-бот с ИИ может утечь конфиденциальные данные клиентов, принимать дискриминационные решения о найме или — как показали несколько недавних судебных исков — побуждать уязвимых пользователей к самоповреждению. Согласно недавнему опросу Женевской ассоциации, международного аналитического центра страховой отрасли, более 90 % предприятий хотят получить страховую защиту от рисков, связанных с генеративным ИИ. Но без поддающихся аудиту стандартов безопасности ИИ-агентов многие страховщики по-прежнему не знают, как предложить такую защиту. Недавний отчет Ernst & Young также показал, что 99 % из 975 опрошенных компаний понесли финансовые потери из-за рисков, связанных с ИИ, причем почти две трети из них понесли убытки на сумму более 1 миллиона долл. Между тем, такие компании, занимающиеся ИИ, как OpenAI, Anthropic, Character.AI, а также ряд других стартапов и технологических гигантов, в последние годы стали объектами крупных судебных исков. Создание новых метрик для беспрецедентных рисков В июле AIUC запустила первую в мире сертификацию для ИИ-агентов, направленную на предоставление поддающегося аудиту эталона для оценки уязвимостей агента. Стандарт, получивший название AIUC-1, охватывает шесть основных аспектов: безопасность, надежность, данные и конфиденциальность, ответственность и социальные риски. По словам Даттани, компании могут добровольно пройти тестирование на соответствие стандарту, чтобы завоевать доверие клиентов, а сертификат также может стать для страховых компаний способом оценить, соответствует ли продукт искусственного интеллекта их стандартам, чтобы быть застрахованным. «Сейчас мы живем в эпоху, когда убытки действительно существуют и происходят; это одно. Второе — то, что страховщики сейчас фактически начинают исключать ИИ из своих существующих полисов», — сказал Даттани. «Поэтому кажется вполне очевидным, что нам понадобится какое-то решение, и нам нужны люди, которые будут заинтересованы в этом и смогут обеспечить независимый надзор. Именно в этом мы видим роль страхования». В понедельник AIUC представила консорциум из 50 сторонних спонсоров из числа технологических компаний (включая Anthropic, Google и Meta), отраслевых групп и академических учреждений, которые будут помогать разрабатывать стандарт сертификации по мере его развития. Компания также работает над созданием стандарта самоповреждения, чтобы определить вероятность того, что система ИИ будет производить контент, который может побудить людей наносить себе вред, сказал Даттани. Он сказал, что такие исследования могут затем послужить основой для новых практик безопасности для разработчиков ИИ и, в свою очередь, для процесса страхования таких рисков. «Правильная оценка риска — это то, как страховщики получают прибыль. После выдачи полиса они не хотят выплачивать страховые возмещения. Конечно, они будут выполнять свои контракты, но будут искать способы помочь своим клиентам избежать убытков», — сказал Кристиан Траут, исследователь в области политики искусственного интеллекта в AIUC. «Страховщики также сталкиваются с неопределенным и новым риском, поэтому они хотят получить ясность по этому вопросу». Страховые полисы AIUC покрывают убытки, причиненные агентами ИИ, в размере до 50 миллионов долл., включая галлюцинации, нарушение прав интеллектуальной собственности и утечку данных. Даттани сказал, что его вдохновил подход Бенджамина Франклина к снижению рисков пожара в 1700-х годах, когда он стал соучредителем Philadelphia Contributionship — старейшей компании по страхованию имущества в стране, которая стала предшественницей современных строительных норм, требуя соблюдения определенных стандартов безопасности для зданий, чтобы они могли быть застрахованы. Спрос растет, а традиционные страховщики отступают В апреле компания Armilla из Торонто, занимающаяся оценкой рисков ИИ, также начала предлагать специализированное страхование клиентам, которые используют ИИ-агентов. Комплексное страхование ответственности Armilla в области ИИ охватывает недостатки в работе, юридические риски и финансовые риски, связанные с широкомасштабным внедрением ИИ в предприятии. Генеральный директор Картик Рамакришнан сказал, что среди его клиентов есть предприятия всех размеров и что спрос растет практически ежедневно. «ИИ — одна из самых демократичных технологий. Ее внедряют все типы компаний, все сферы деятельности, от розничной торговли до производства и банковского дела», — сказал он. «Поэтому спрос на эту страховку поступает со всех сторон. По его словам, некоторые страховые компании полностью исключают покрытие ИИ из-за «страха перед неизвестным». Но Armilla, которая начинала с оценки уязвимостей ИИ-моделей предприятий, готова восполнить этот пробел с помощью своих экспертов по ИИ и данных, собранных ими за долгие годы. Рамакришнан предсказывает, что всего через несколько лет страхование ИИ станет самостоятельным процветающим рынком. Фактически, Deloitte предполагает, что к 2032 году этот рынок может достичь 4,8 миллиарда долл., хотя Рамакришнан считает, что эта цифра занижена. Munich Re, глобальная страховая компания со штаб-квартирой в Германии, представила свое страхование ИИ еще в 2018 году, до бума генеративного ИИ. В последние годы спрос значительно вырос. «Рост генеративного ИИ также привел к осознанию рисков, которые несут с собой эти инструменты, и это, по нашему мнению, положительно отразилось на спросе, который мы наблюдаем», — сказал фон Габленц, возглавляющий этот отдел. По его словам, в настоящее время aiSure от Munich Re в основном покрывает галлюцинации ИИ, но также изучает возможности покрытия исков о нарушении прав интеллектуальной собственности и других видов рисков. Для количественной оценки рисков, связанных с ИИ, компания в большей степени полагается на результаты тестирования моделей, чем на исторические данные об убытках, которые страховщик обычно использует для расчета стоимости полисов. Рамакришнан и фон Габленц сравнили зарождающуюся отрасль страхования ИИ с траекторией развития киберстрахования, которое начиналось как небольшой нишевый рынок, а затем превратилось в многомиллиардный рынок. Смешанный подход к регулированию Экономист и исследователь ИИ Джиллиан Хэдфилд давно выступает за смешанный подход к регулированию ИИ, сочетающий государственное регулирование с рыночными силами. По ее словам, правительствам в одиночку не хватает опыта и скорости, чтобы идти в ногу с быстрыми технологическими достижениями. «Мы действительно хотим задействовать потенциал рынков для решения сложных проблем, привлечения инвестиций, талантов, рискового капитала и инноваций», — сказала Хэдфилд. «И эта сложная проблема в контексте ИИ заключается в следующем: как заставить наши системы ИИ делать то, что мы хотим, чтобы они делали, то есть делать хорошие вещи, а не плохие?» Хэдфилд сотрудничает с Fathom, некоммерческой группой по безопасности ИИ, с целью предложить законодательство штата для создания системы управления ИИ третьей стороной, которая опирается на то, что она называет «независимыми организациями по проверке». В рамках этой модели правительства штатов или федеральное правительство устанавливают приемлемые уровни риска для систем ИИ и уполномочивают оценщиков из частного сектора проверять, соответствуют ли компании стандартам. Затем компании могут добровольно обращаться за сертификацией в независимые организации по проверке, чтобы продемонстрировать свое соответствие требованиям безопасности. В этом ключе, по ее словам, страхование может сыграть важную роль в поощрении компаний к соблюдению правил безопасности, установленных правительством или третьими сторонами, путем включения этого требования в условия страхового покрытия. Соучредитель Fathom Эндрю Фридман считает, что это будет мощным стимулом, поскольку многие компании по-прежнему не решаются внедрять ИИ-агентов без какой-либо гарантии, что все пойдет гладко и им не придется оплачивать счета. «Мы увидим, как рынок технологий верификации будет расти вместе с рынком возможностей, — сказал Фридман. — И я думаю, что мы находимся в самом начале этого процесса. Но, честно говоря, я также считаю, что мы находимся в самом начале развития ИИ — или, по крайней мере, его влияния на общество».