Южная Америка

Лаура Эллис: «Человечность журналистики — это то, что мы должны сохранить»

Лаура Эллис: «Человечность журналистики — это то, что мы должны сохранить»
Лаура Эллис возглавляет в BBC одну из самых активных лабораторий, занимающихся исследованием технологического будущего средств массовой информации. Ее задача заключается не только в том, чтобы предвидеть изменения, но и гарантировать, что основные ценности публичной журналистики не будут размыты в буре инноваций. От пионерского использования автоматизации в редакции до участия в глобальных организациях, таких как C2PA (Коалиция за происхождение и аутентичность контента, открытый технический стандарт, позволяющий создателям, издателям и потребителям проверять происхождение и редакции цифрового контента), Эллис и ее команда ищут баланс между возможностями и рисками, эффективностью и этикой, масштабом и человечностью. В интервью LA NACION руководительница медиакомпании размышляет о пределах роботизированной журналистики, угрозе «поддельного контента» и роли BBC как противовеса нерегулируемому продвижению платформ и алгоритмов. «Ее послание ясно: нужно ставить аудиторию на первое место, быть прозрачными и никогда не забывать, что за хорошей историей должен стоять человек». - В своей роли директора по технологическим перспективам BBC, как вы интегрируете принципы прикладной этики в решениях о новых технологиях, таких как генеративный ИИ? - Мы опираемся на наш многолетний опыт в области этического дизайна и приверженности универсальности. У нас есть хорошо информированные команды и большой накопленный опыт. Кроме того, мы активно стремимся наладить связи с другими участниками отрасли, чтобы обмениваться информацией о проблемах и возможных решениях. Мы всегда руководствуемся нашими основными ценностями и приверженностью нашей аудитории. Мы очень серьезно относимся к необходимости использовать тенденции, которые приносят пользу, но при этом принимаем их в соответствии с нашими принципами». — Вы говорили о балансе между рисками и возможностями при внедрении новых технологий. Могли бы привести конкретный пример в контексте автоматизации контента в вашей организации? — Да. Когда мы начали использовать автоматизированную журналистику, мы создали 20 локализованных версий одной и той же статьи, используя контекстный формат с Arria — платформой искусственного интеллекта, которая преобразует структурированные данные в естественный язык. Мы знали, что могут просочиться ошибки, поэтому тщательно проверили исходную статью и таблицу данных, а затем прочитали все 20 версий перед публикацией. Таким образом, мы смогли увеличить объем производства без ущерба для качества и нашей репутации. - Как алгоритмы персонализации влияют на пользовательский опыт BBC и как они справляются с возможными предвзятостями или негативными эффектами? - У нас есть установленные процессы, которые гарантируют тщательный мониторинг использования алгоритмов. - Британская медиакомпания имеет на своем веб-сайте раздел, в котором предоставляет аудитории руководство по пониманию того, как работают проекты персонализации в различных форматах. BBC персонализирует свой аудиоконтент, используя информацию из учетных записей пользователей на своих платформах, таких как iPlayer, Sounds, News, Sport, Weather или Bitesize, то есть сервисах, которые предлагают рекомендации на основе того, что уже просматривается, прослушивается или читается. Так, в iPlayer система запоминает, до какого места пользователь дошел в каждом эпизоде, чтобы можно было продолжить просмотр с того места, на котором он остановился. В Sport можно персонализировать «My Sport» (Мой спорт), выбрав до 300 спортивных тем, получать уведомления и синхронизировать этот профиль на всех устройствах. «Мы очень серьезно относимся к необходимости использовать тенденции, которые приносят пользу, но при этом принимаем их в соответствии с нашими принципами». Британская сеть также применяет персонализацию в других разделах: в разделе «Новости» предлагаются статьи на основе истории просмотров и того, что читают пользователи с похожими интересами (не скрывая важные новости); в разделе «Погода», при отметке любимых мест, предлагаются персонализированные прогнозы, доступные на всех устройствах; в разделе «For you» группируется контент, автоматически отобранный в зависимости от активности, тенденций и популярности у каждого читателя; а в детском и образовательном контенте можно установить темы или предметы, чтобы просматривать их в первую очередь, или возобновить персонализированное обучение в соответствии с вашим школьным уровнем. «----» — «И какие процессы управления и прозрачности вы используете, чтобы гарантировать, что автоматизация новостей не ставит под угрозу редакционную целостность?» - Мы применяем определенные «бизнес-правила» к новостям, чтобы гарантировать, например, что юридические заметки не будут неправильно позиционированы или ненадлежащим образом ассоциированы. - BBC принимает на себя явное обязательство по обеспечению прозрачности в использовании ИИ, основываясь на своих редакционных принципах и принципах BBC AI Principles. Важной частью этой политики является четкое объяснение, когда, как и почему используется ИИ, как перед аудиторией, так и внутри организации. Логика проста: если ИИ генерирует или преобразует контент, это необходимо четко объяснить, чтобы сохранить доверие публики. Это особенно актуально для новостей, актуальных событий или фактического контента, где грань между реальностью и искусственно сгенерированным контентом может стать размытой. «Для обеспечения такой прозрачности устанавливаются два типа формул: прямая (например, маркировка изображения как сгенерированного ИИ) и косвенная (например, указание использования ИИ в титрах контента или в условиях использования сайта). Прямое раскрытие информации является обязательным, когда использование ИИ может ввести в заблуждение или если контент автоматизируется без контроля со стороны человека. Например, если ИИ используется для анонимизации лица с помощью face-swapping (обмен лицами — это техника, которая заключается в цифровой замене лица человека на изображении или видео лицом другого человека с помощью ИИ) или для генерации автоматических субтитров в подкасте, об этом должно быть явно указано. В конкретном случае новостей и информационного контента BBC запрещает ИИ напрямую генерировать контент, за исключением предварительно проверенного и подтвержденного контента. Даже в этих случаях, если ИИ оказывает значительное влияние, например, переводит всю статью, необходимо указать это. Напротив, если программное обеспечение для транскрипции было использовано только для пресс-конференции в рамках исследования, упоминать об этом не нужно. Британское СМИ предлагает четкую формулу для упоминаний: указать формат контента, роль человека (включая его надзор), роль ИИ и ссылку для получения дополнительной информации. Таким образом, BBC стремится не только защитить свою редакционную целостность, но и создать культуру открытости и подотчетности в отношении автоматизации. ---- В отношении машинного обучения (marchine learning), какие модели вы используете для классификации или рекомендации контента и как оценивается их точность и справедливость? - Я не могу ответить на этот вопрос по причинам коммерческой конфиденциальности. Могу только сказать, что они оцениваются посредством периодических проверок. Как BBC решает проблему дезинформации и дипфейков в медиа-экосистеме, например, с помощью таких инициатив, как «Project Origin» — совместный проект с другими организациями, направленный на аутентификацию мультимедийного контента и обеспечение его подлинности при распространении в Интернете — или стандартов, таких как C2PA? «Мы боремся с дезинформацией с помощью четырех инструментов: обнаружение дипфейков (видео, изображения или аудио, манипулированные или искусственно сгенерированные с помощью ИИ, которые могут показывать реальных или вымышленных людей, совершающих действия или говорящих вещи, которых они никогда не делали и не говорили) или аномалий (разрабатывается в BBC RD — отдел исследований и разработок), сотрудничество с редакциями, медийная грамотность и отслеживаемость контента. Технические команды работают в тесном контакте с отделом новостей и другими подразделениями, чтобы правильно направлять свои усилия. — Исходя из вашего опыта, должны ли такие платформы, как Google или Meta, регулироваться как издатели, и какие последствия это имеет для BBC? — Я не могу ответить на этот вопрос — мы оставляем его на усмотрение регулирующих органов. Единственное, что я могу сказать, это то, что все должны ставить интересы пользователей на первое место и гарантировать, что контент, который они получают, является безопасным и точным. — Как команда, которую вы возглавляете, способствует разработке международных норм или технических стандартов в отношении происхождения медиа и проверки? — Мы много работаем, участвуя в деятельности таких организаций по стандартизации, как W3C. У нас есть представители в главном комитете C2PA и в нескольких подкомитетах. Мы уделяем много времени диалогу с заинтересованными сторонами и продвижению принятия стандартов. — Какое влияние, по вашему мнению, оказывает сочетание автоматической персонализации и традиционного линейного контента на качество информации? — Я думаю, что мы еще не до конца понимаем это влияние. Исследования аудитории показали нам, что, хотя персонализация и ценна, люди также ценят общий опыт. Мы должны предотвратить загрязнение нашей информационной экосистемы «ИИ-мусором» или поддельным контентом, как мы его называем, поэтому мы продвигаем такие инструменты, как C2PA. - Как вы справляетесь с противоречием между персонализацией для привлечения внимания и риском создания информационных пузырей? - Мы должны избегать «кроличьих нор» (спиралей контента, выражение, которое используется для описания опыта первоначального поиска, который может привести к множеству других, отнимающих много времени и отвлекающих внимание), потому что, как общественное СМИ, наши ценности не позволяют нам поощрять вредные модели поведения. Поскольку у нас нет первоочередной необходимости в получении кликов, мы можем позволить себе рисковать и предлагать разнообразный контент. Мы гордимся тем, что предоставляем богатый, разнообразный и заставляющий задуматься опыт». Мы боремся с дезинформацией с помощью четырех инструментов: обнаружение дипфейков или аномалий (разрабатывается в BBC RD — отдел исследований и разработок), сотрудничество с редакциями, медийная грамотность и отслеживаемость контента. BBC была пионером в создании цифровых редакций end-to-end (100% цифровых редакций). Какие ключевые уроки были извлечены из этого перехода, особенно с точки зрения технологической этики? — Что всегда сложнее быть первым! Гораздо проще быстро следовать за другими, чем прокладывать путь. Что касается этики в сфере технологий, то многофункциональность может быть сложной задачей, и очень важно заботиться о тех, кто берет на себя новые обязанности. — Когда речь заходит об автоматизированной журналистике или журналистике-роботе, какие ограничения и этические нормы вы считаете необходимыми для поддержания доверия и авторитета? — Прозрачность имеет решающее значение. А проверка необходима для предотвращения «галлюцинаций». Это затрудняет масштабирование такого рода контента. Нам также необходимо сохранить человечность журналистики: уникальную ценность человека, который испытывает что-то и передает это другим. — Думая о будущем, какие дискуссии, по вашему мнению, нам следует срочно провести в ближайшие пять или десять лет по поводу СМИ, технологий и общества? — Мы должны спросить у публики, чего она хочет от ИИ, не предполагая и не позволяя дискриминационному или вредному ИИ наносить ей ущерб. Мы должны сделать все возможное, чтобы поднять уровень публичного дискурса, который сегодня опасно поляризован, и дать людям лучшие инструменты для навигации по информационной экосистеме».