Дезорганизация, риски и адаптация талантов: с чем ИИ оставит нас в 2023 году

В то время как модели искусственного интеллекта (ИИ) и обработки естественного языка (НЛП) активно развивались в последние годы, значительные успехи, достигнутые с подписанием Open AI и ChatGPT в конце 2022 года, застали врасплох технологическое сообщество, научные круги и бизнес. 2023 год, несомненно, стал годом, когда организации начали двигаться по пути генеративного ИИ, оказывающего значительное влияние на бизнес и рынок труда. Несмотря на то, что инструменты генеративного ИИ только появились в открытом доступе, эксперименты с этой технологией уже достаточно распространены в разных регионах, отраслях и на разных уровнях должностей: согласно глобальному отчету McKinsey "Состояние ИИ в 2023 году: год прорыва генеративного ИИ", 79% респондентов утверждают, что хотя бы немного сталкивались с генеративным ИИ на работе или вне ее, а 22% говорят, что регулярно используют его в своей работе. То же самое справедливо и в организационной сфере. Согласно результатам исследования, треть респондентов признает, что их организации уже регулярно используют генеративный ИИ как минимум в одной из функций, а 40% респондентов, сообщивших о внедрении ИИ в своих организациях, признают, что их компании планируют увеличить инвестиции в ИИ. "Наиболее распространенными бизнес-функциями, использующими эти инструменты, являются маркетинг и продажи, разработка продуктов и услуг, а также сервисные операции, такие как обслуживание клиентов и административная поддержка. "На столь ранних этапах ожидания относительно влияния генеративного ИИ высоки: согласно отчету, три четверти компаний ожидают, что генеративный ИИ вызовет значительные или разрушительные изменения в характере их отрасли в ближайшие три года, особенно среди технологических компаний и тех, которые в большей степени зависят от индустрии знаний, таких как банковское дело и финансы, фармацевтика и медицинская продукция". "Каким образом ИИ оказывает экономическое влияние на организации? Согласно исследованию, проведенному компанией Microsoft по заказу IDC, 92% внедрений ИИ занимают 12 месяцев или меньше, а организации видят отдачу от своих инвестиций в ИИ уже через 14 месяцев. Интересно, что на каждый доллар, вложенный компанией в ИИ, она получает в среднем 3,5-кратную отдачу. "Некоторые компании переводят основной бизнес и инвестиции в ИИ. Согласно вышеупомянутому отчету McKinsey, компании, в которых не менее 20% прибыли в 2022 году было связано с использованием искусственного интеллекта, в пять раз чаще инвестируют в него более 20% своих цифровых бюджетов. В отличие от других, эти компании - передовые в области ИИ - делают ставку на искусственный интеллект для создания совершенно новых бизнесов или потоков прибыли, особенно используя его в разработке продуктов и услуг, а также в управлении рисками и цепочками поставок. "Эти организации также чаще других используют ИИ в моделировании рисков и для применения в HR, например, в управлении эффективностью, проектировании и дизайне", - говорится в отчете McKinsey, Хотя эти организации не застрахованы от проблем, связанных с извлечением выгоды из ИИ, результаты показывают, что трудности, с которыми они сталкиваются, отражают их относительную зрелость в использовании этой технологии, например, мониторинг работы модели и ее обучение по мере необходимости с течением времени являются их основной задачей. Те компании, которые находятся на более ранних стадиях использования ИИ, все еще находятся на более стратегических этапах, таких как создание четко определенной концепции ИИ, связанной с бизнес-ценностью, или поиск достаточных ресурсов для реализации целей ИИ. "Мало кто из компаний, похоже, полностью готов к широкому использованию ИИ или бизнес-рискам, которые могут принести эти инструменты". "Генеративный ИИ представляется простым в использовании, особенно если он имеет интерфейс в виде чата, однако для того, чтобы доверять результатам, которые он дает, необходимо иметь соответствующие инструменты контроля, политики использования, мониторинга и обучения", - говорит Мариана Мелбардис, партнер практики цифрового консультирования PwC в Аргентине. По данным McKinsey, только 21% компаний признают, что у них есть политики, регулирующие использование технологий ИИ. В тех случаях, когда на этом делается акцент, "неточности" в результатах взаимодействия ИИ менее важны, чем такие вопросы, как кибербезопасность и соблюдение нормативных требований: только 32% признают, что занимаются уменьшением неточностей, в то время как 38% уделяют внимание кибербезопасности. "Хуан Пабло Хемес, директор по инновациям Accenture в Аргентине, отмечает, что при рассмотрении вопросов кибербезопасности для генеративного ИИ особое внимание уделяется утечке и краже данных и ИС, вредоносному контенту, высокоскоростным целевым контекстным атакам, оркестровке генеративных технологий для нецелевого использования, масштабной дезинформации, нарушению авторских прав и усилению существующих предубеждений и дискриминации. "Организации должны осознавать риски и быть готовыми к их устранению, что требует хорошо спланированной и реализованной стратегии безопасности с самого начала", - говорит он. "Стоит отметить, что после прорыва ИИ в конце 2022 года, в 2023 году дискуссия о безопасности и этике использования ИИ стала популярной, побуждая к действиям экспертов, бизнес и регулирующие органы по всему миру. Однако, согласно докладу "State IA Report 2023", подготовленному Air Street Capital Team, конкретный прогресс в области глобального управления отсутствует, поскольку правительства разных стран мира применяют противоречивые подходы, а нормативная база по-прежнему остается неопределенной. "В этом смысле к открытому письму марта прошлого года, в котором эксперты и лидеры призвали ввести мораторий на эксперименты с ИИ, присоединилось новое предложение 23 экспертов, представленное в октябре, среди которых Джеффри Хинтон и Йошуа Бенгио, два из трех "крестных отцов ИИ", а также такие лидеры, как Юваль Ной Харари и Дэниел Канеман, нобелевский лауреат по экономике, и другие. "Документ призывает задуматься о том, как мощные системы искусственного интеллекта угрожают социальной стабильности, в то время как "совершенно неразумно" стремиться к созданию все более мощных систем ИИ, не разобравшись в том, как сделать их безопасными. В документе также содержится призыв к правительствам принять ряд мер, включая обеспечение безопасного и этичного использования систем, предоставление независимым аудиторам доступа в лаборатории искусственного интеллекта и создание системы лицензирования для создания передовых моделей. С другой стороны, он стремится обязать компании принимать конкретные меры безопасности, если они сталкиваются с опасными возможностями в своих моделях, и возложить на них ответственность за предвидимый и предотвратимый ущерб. "В связи с ростом доверия к потенциалу ИИ для трансформации операций 2023 год стал годом высокого спроса на инженеров-программистов и инженеров по обработке данных - специалистов, способных определить, какие процессы можно улучшить или полностью переосмыслить, какие новые продукты можно разработать и какие новые услуги можно предложить клиентам благодаря применению этой технологии. "Однако организации сталкиваются с проблемами, когда дело доходит до внедрения.