Хуан Карлос Лопес Кальвет: «Ключевым показателем является не количество кликов, а доверие»
По мнению мексиканца Хуана Карлоса Лопеса Кальвета, директора по данным и искусственному интеллекту в Schibsted News Media — одном из крупнейших скандинавских медиа-конгломератов —, актуальная дискуссия об искусственном интеллекте в СМИ уже не сводится к увлечению технологиями, а касается более конкретного вопроса: как использовать его для укрепления журналистики, служащей общественным интересам, не ущемляя при этом её редакционную миссию. В связи с этим он утверждает, что ценность ИИ следует оценивать не только по его способности экономить время или снижать затраты, но и по реальному вкладу в качество, понимание и охват журналистской работы. «В беседе с LA NACION перед своим участием в конференции Digital Media Latam 2026 в Боготе, Колумбия, инженер приводит в качестве примера проекты, которые позволяют расширить доступ к сложному контенту с помощью новых форматов, таких как автоматическое преобразование статей в аудиовизуальные материалы. Но он настаивает на том, что заслуга заключается не только в эффективности процесса, но и в том, что такая трансформация заставляет пересматривать нарратив, доказательства и контекст для сохранения строгости. Технология, говорит он, полезна тогда, когда помогает открывать истории, улучшать продукты и охватывать более широкую аудиторию, а не тогда, когда ограничивается умножением форматов, как копировальная машина на стероидах. «Перед лицом индустрии, которая обычно внедряет ИИ через призму производительности, руководитель подчеркивает необходимость жесткого редакционного управления». Это подразумевает рамки использования, показатели, ориентированные на общественную ценность, ограничения на контент деликатного характера и участие людей, обладающих правом вето на всех этапах процесса. По его мнению, наибольший риск возникает тогда, когда успех измеряется исключительно такими показателями, как количество кликов, вовлеченность или время пребывания на сайте, поскольку в этом случае журналистика рискует стать быстрее, но не обязательно лучше. «Лопес Кальвет также предупреждает о других важных аспектах: способности моделей давать объяснения, сохранении общественного пространства, не полностью фрагментированного персонализацией, и защите роли человека в таких ключевых задачах, как проверка, редактирование и этическая оценка. По его мнению, исчезнут рутинные и повторяющиеся задачи, но не исчезнет журналист как незаменимая фигура, придающая информации смысл, нюансы и ответственность. «Девиз, — резюмирует он, — не в том, чтобы заменить, а в том, чтобы усилить; небольшая разница в словах, но огромная в последствиях». — Вы говорите об «укреплении журналистики общественного интереса» с помощью данных и ИИ. Каков лучший пример проекта, в котором технологии не только повысили эффективность, но и улучшили качество журналистики?» — «Наиболее яркий пример — это когда мы объединяем данные, модели и редакционный процесс, чтобы расширить доступ к новостям общественного интереса и их понимание. В компании Schibsted такие проекты, как Videofy, продемонстрировали важную вещь: преобразование сложных статей в доступные аудиовизуальные материалы позволяет донести результаты исследований и объяснения до аудитории, которая не читает длинные тексты, что способствует расширению освещения общественных вопросов и улучшению понимания граждан, а не только ускорению производства контента. Videofy автоматизирует многие производственные задачи, но главное в том, что он заставил переосмыслить структуру повествования и подбор доказательств, чтобы видеоверсия сохраняла точность и контекст, а это повысило конечное качество продукта, а не только количество доступных форматов. Параллельно с этим наша стратегия в области ИИ делает акцент на использовании моделей для выявления закономерностей в больших объемах данных, что впоследствии позволяет генерировать идеи для расследований, приоритезировать распределение ресурсов и проводить автоматизированную проверку фактов. «Когда эти процессы разрабатываются совместно с журналистами с самого начала, технология расширяет возможности нахождения историй, которые без нее остались бы скрытыми среди шума и массивов данных». — Практически во всех СМИ ИИ входит через дверь производительности. Как не допустить, чтобы эта логика в конечном итоге переопределила редакционную миссию: делать больше, быстрее… но не обязательно лучше?» — Ответ — это редакционное управление и показатели успеха, ориентированные на общественную ценность. ИИ подталкивает к тому, чтобы делать больше за меньшие средства, но если показатели и стимулы вознаграждают только объем или скорость, цель нашей миссии оказывается под угрозой. В Schibsted мы следим за тем, чтобы каждый инструмент повышения производительности имел: редакционную концепцию, описывающую, что означает «лучше» для данного продукта; ответственных сотрудников с правом редакционного вето («human in the loop»); качественные и количественные показатели качества, которые измеряют доверие, а не только количество кликов. На практике это подразумевает этапы совместного проектирования с редакцией, ограничения на автоматизированное использование для контента, требующего особого внимания, и процессы обязательной проверки для материалов, влияющих на общественное мнение или достоверность источников. — Schibsted работает над автоматизацией, верификацией и генеративными моделями, уделяя особое внимание редакционной целостности, объясняемости (explainability) и конфиденциальности. Какое из этих трех направлений сегодня сложнее всего отстаивать, когда существует давление на быстрое внедрение инноваций?» — Все они важны, но способность к объяснению обычно сложнее всего поддерживать, когда нужно спешить с инновациями. Редакционная целостность и конфиденциальность закреплены в нормах и договорах, которые мы можем зафиксировать в письменной форме, таких как наши позиции по лицензированию контента и сканированию (процесс, при котором роботы поисковых систем сканируют, читают и анализируют контент и ссылки веб-сайтов для их индексации), и обычно обеспечиваются с помощью правовых и продуктовых механизмов контроля. Эта способность к объяснению вступает в противоречие с тем, как работают языковые модели, где не всегда легко проследить, почему система предложила ту или иную фразу или изображение. Обеспечение объяснимости требует времени, инвестиций в инструменты, а иногда и ограничения использования моделей до тех пор, пока мы не сможем продемонстрировать, как и почему они принимают решения. На данный момент в Schibsted у нас есть только один сервис, в котором ИИ принимает самостоятельные решения. Это сервис, который проверяет, какие статьи я не читал с момента моего последнего посещения газеты, и показывает мне самые важные новости, появившиеся с момента моего последнего просмотра. Это решение основано на данных, которые мы можем объяснить, поэтому на данный момент за всеми решениями всегда стоит человек, и, возможно, в будущем, когда у нас появится объясняемость, мы сможем позволить алгоритмам принимать больше автономных решений. «Наша стратегия в области ИИ делает акцент на использовании моделей для выявления закономерностей в больших объемах данных, что впоследствии позволяет генерировать идеи для расследований, приоритезировать распределение ресурсов и проводить проверки с помощью ИИ». — Вы выдвигаете принцип «enhance, not replace» (улучшать, а не заменять). На практике, какие журналистские задачи, по вашему мнению, действительно исчезнут, даже если журналисты не исчезнут? - Исчезнут рутинные и повторяющиеся задачи, не требующие редакционного суждения, например: ручная транскрипция, базовая маркировка, создание первых черновиков строго структурированных материалов, написание текстов с фиксированным форматом, таких как базовые спортивные сводки или официальные пресс-релизы с количественными данными, а также большая часть работы по технической верстке в стандартных форматах. Это не означает, что журналисты исчезнут. Существенная часть профессии — поиск источников, тщательная проверка фактов, построение повествования, этическое суждение и редактирование, сохраняющее нюансы, — по-прежнему будет оставаться прерогативой человека. Кроме того, избавление от рутинных задач обычно освобождает время для расследовательской работы и совершенствования аналитической журналистики — при условии, что организация вкладывает средства в повышение качества, а не только в расширение масштабов. «В Schibsted мы руководствуемся этим принципом». — Персонализация обещает релевантность, но журналистика также должна способствовать общему диалогу. Где вы проводите границу, чтобы хороший алгоритм не разрушил общественную площадку? — Персонализация полезна для релевантности, но СМИ должны оставлять неперсонализированные пространства, которые предоставляют аудитории информацию, необходимую сообществу для коллективного принятия решений. Например, новости, представляющие общественный интерес, освещение выборов, чрезвычайные ситуации и аналитические статьи. Также целесообразно ограничивать алгоритмы, оптимизирующие исключительно по интересам, внедряя механизмы, гарантирующие разнообразие, плюрализм источников и приоритет проверки фактов. «На практике мы определяем правила редакционной приоритезации для наиболее важных разделов наших цифровых площадок, а в таких случаях, как спортивные новости, мы экспериментируем с ИИ, который имеет больше возможностей для отбора отображаемых новостей». — «Если бы вам пришлось выбрать один-единственный показатель для оценки того, действительно ли работает тот или иной ИИ-продукт в сфере СМИ, каким бы он был? И какой показатель вам кажется наиболее опасным, когда его принимают за истину в последней инстанции? — Это был бы показатель редакционной надежности, сочетающий в себе: процент контента, прошедшего редакционный контроль качества, процент исправлений и показатели доверия читателей. Этот показатель отражает, соответствует ли продукт журналистским стандартам. Самый опасный показатель — это чистое вовлечение, например CTR (Click Through Rate, или коэффициент кликов) или время пребывания на сайте, взятые изолированно. Это эффективно с коммерческой точки зрения, но может подталкивать к решениям, которые подрывают контекст, сложность и доверие». — В Schibsted продемонстрировали примеры, начиная от помощников по написанию текстов и прогнозной аналитики до генерации видео на основе статей. «Чему они научились из проектов, которые технически работали, но с редакционной точки зрения не были полностью убедительными?» — Технические примеры, которые «работали», но не убедили журналистов, обычно имеют общие причины: отсутствие совместного проектирования с редакторами, отсутствие редакционного контроля качества на этапе производства и несогласованные показатели. Мы поняли, что техническое решение должно стать частью реального рабочего процесса журналиста, а не навязываться ему как дополнительный слой. Мы также увидели, что генеративные выводы требуют четких стилистических указаний и правил указания авторства, библиотек авторизованных ресурсов, а также процесса редактирования, который сохраняет голос газеты (или бренда, как мы это называем в Schibsted) и замысел материала. В таких проектах, как Videofy, ключевым уроком стало создание библиотек аудио и графики, а также примеров «золотого стандарта», чтобы научить модель тому, как мы хотим, чтобы информация передавалась, и сохранить участие людей в производственном цикле. — Дашборды обычно переполнены данными и лишены контекста. Вы сказали, что одна из проблем заключается в том, что аналитические выводы нелегко доступны журналистам. Как спроектировать слой ИИ, который предоставит полезную аналитику, не превращая репортера в заложника панели? — Проектируйте с учетом полезности и автономии журналиста. Вместо дашбордов, переполненных цифрами, мы предпочитаем диалоговые интерфейсы, интегрированные в CMS, которые позволяют задавать вопросы на естественном языке, легко принимать, редактировать или отклонять предложения. Также важно, чтобы системы предлагали точные настройки для включения или отключения рекомендаций, а журналисты могли настраивать релевантные оповещения. Один принцип: ИИ снижает трение, а не заменяет его, и интерфейс должен облегчать редактирование человеком, а не навязывать автоматические действия. Это был один из важнейших факторов в наших проектах по разработке внутренних инструментов, где интеграция с CMS (системой управления контентом) и удобство использования стали залогом успеха. В то же время мы разрабатываем инструмент под названием ARIA, с помощью которого любой сотрудник компании (не только журналисты) может задавать вопросы по нашим данным через такие инструменты, как Slack или ChatGPT. Моя цель для этого инструмента — демократизировать доступ к информации, основанной на данных». — Когда вы говорите об ответственной ИИ, вы упоминаете доверие, инклюзивность и людей, ответственных за принятие решений. Какую конкретную ошибку вы совершили или были близки к совершению, что заставило вас ужесточить эти правила?» — «У нас были случаи, когда автоматические резюме и материалы, сгенерированные моделями, не давали ясности относительно источника информации или предоставляли информацию, которая раньше была верной, но теперь стала неверной (например, были случаи, когда упомянутое мной ранее автоматическое резюме писало: «Бывший президент Трамп...». Это заставило нас ужесточить правила: проверка людьми для чувствительных материалов, ограничения на то, что могут писать наши модели, и прозрачность (раздел в наших газетах, где мы пишем об ошибках, допущенных людьми или ИИ). Этот набор мер теперь является частью нашей публичной позиции и того, как мы используем модели ИИ». — Ваше СМИ подписало соглашение с OpenAI об интеграции контента в свои продукты с четким указанием авторства. «С точки зрения СМИ, в чём заключается суть бизнеса в данном случае: в распространении, обучении, доходах, защите бренда или в том, чтобы не оказаться за бортом новой информационной экосистемы?» — Единого ответа нет, это стратегическое сочетание факторов. Во-первых, доступ к техническим возможностям, которые ускоряют инновации и позволяют создавать новые продукты, такие как генерация видео или редакционные помощники. Во-вторых, обеспечение того, чтобы наш контент использовался с указанием авторства и на справедливых условиях, что защищает наши отношения с аудиторией. В-третьих, обучение и конкурентное преимущество, поскольку альянс способствует глубокому пониманию того, как наш контент развивается в новых интерфейсах, таких как ChatGPT. И, наконец, распространение и возможность присутствовать на новых уровнях доступа к информации, избегая того, чтобы остаться за бортом того, что некоторые уже называют новой операционной системой информации. Для нас это партнерство — это сочетание защиты ценности, разработки продукта и поиска новых источников дохода, с четкими правилами относительно указания авторства и использования контента. Моя личная точка зрения (а не точка зрения Schibsted) заключается в том, что мы должны присутствовать во всех медиа, чтобы наш контент по-прежнему способствовал выполнению нашей общественной миссии, и в то же время обеспечивать себе новые возможности для получения дохода. Как работают в Schibsted: «Мы приняли ряд мер, которые теперь являются частью нашей публичной позиции и того, как мы используем модели ИИ: проверка людьми чувствительных материалов, ограничения на то, что могут писать наши модели, и прозрачность (раздел в наших газетах, где мы пишем об ошибках, допущенных людьми или ИИ)». Но резюмировать — это значит выделять приоритеты, а выделять приоритеты — значит редактировать. Как вы гарантируете, что автоматическое резюмирование не упустит нюансы, контекст или даже первоначальный журналистский замысел?» — Мы гарантируем две вещи: прозрачность и контроль. Прозрачность подразумевает, что каждое резюме содержит ссылки на полные источники. Контроль означает, что резюме может быть отредактировано журналистами, что существует режим «ассистированного резюме» вместо «автоматического окончательного резюме», и что модели обучаются на примерах, сохраняющих тон, замысел и нюансы. Для всех наших статей мы применяем проверку людьми перед публикацией. «Здесь сочетаются редакционная ответственность журналиста и показатели качества, благодаря чему обобщение становится подспорьем, а не заменой редакционному суждению». — Вы работаете на стыке платформенной инженерии, продуктового развития и редакционной стратегии. Где, по вашему мнению, сегодня наблюдается наибольшее недопонимание между техническими специалистами и журналистами в редакции? — Основное недопонимание касается целей и ограничений. Технологи склонны измерять успех с помощью автоматизации, в то время как журналисты оценивают его по строгости, нюансам и социальным последствиям. Решение заключается в создании общих целей, смешанных показателей и совместного обучения. Включение журналистов в продуктовые команды с самого начала и предоставление им реальной власти в принятии решений по продукту снижает трения. Кроме того, необходимо инвестировать в взаимную грамотность: журналисты должны понимать технические ограничения, а инженеры — этические приоритеты и необходимость проверки. - Если мы поговорим через два года, что бы вы хотели сказать: «это был чистый пустой звук» или «это действительно изменило способ создания и поддержания журналистики»? - То, что я считаю пустым звуком, — это страх, который мы испытываем как отрасль, защищая наш контент до последнего, чтобы не допустить использования этого самого контента языковыми моделями для обучения своих моделей. Я считаю, что для обучения модели все меньше нуждаются в нашем контенте, но все больше нуждаются в нем для отображения реальности, в которой мы живем, в «реальном времени». Лично я считаю, что мы должны стремиться развивать новые формы коммуникации в наших компаниях и одновременно предоставлять наш контент другим каналам, таким как Gemini или ChatGPT, чтобы обеспечить обществу возможность получать актуальный, качественный и достоверный контент в любом формате.
