Социальные сети и искусственный интеллект: новое поле битвы за неприкосновенность частной жизни детей

Сегодня социальные сети есть практически у всех, в том числе и у несовершеннолетних. Однако не весь контент, распространяемый на этих платформах, является подходящим и конструктивным для них. Согласно исследованию Pew Research Center, 44 % родителей считают социальные сети одним из самых больших негативных влияний на жизнь своих детей. В связи с этим компания Meta, владеющая Instagram, в прошлом году запустила «Подростковые аккаунты». Эти аккаунты призваны поддержать родителей и разработать опыт, включающий определенные ограничения на то, кто может связываться с младшими пользователями, какой контент они просматривают и сколько времени проводят в сети. Кроме того, детям до 16 лет требуется разрешение родителей на внесение любых изменений в настройки. «Давид Регайраз, юрист, специализирующийся на кибербезопасности, защите данных и искусственном интеллекте, сказал LA NACION, что серфинг в цифровой среде сопряжен с рядом рисков, которые варьируются от незначительных и приемлемых до серьезных и неприемлемых. В частности, Meta призвана предотвратить доступ несовершеннолетних к неприемлемому контенту, который, в случае его реализации, может повлиять на их развитие и психоэмоциональное состояние, а также предотвратить общение взрослых с несовершеннолетними, что может привести к таким серьезным преступлениям, как груминг или кибер-насилие, среди прочего. Кроме того, внедрение Teen Accounts позволяет родителям осуществлять родительский контроль над своими детьми, говорит специалист. Но обойти эти ограничения бывает очень просто: вместо того чтобы указать свой настоящий день рождения, подростки меняют год, чтобы притвориться старше и получить доступ к аккаунту в Instagram без ограничений. В связи с этим Meta объявила о добавлении искусственного интеллекта для поиска аккаунтов, которые, как они подозревают, могут принадлежать более молодому пользователю, даже если у него взрослый год рождения. «Мы предпринимаем дополнительные шаги, чтобы убедиться, что как можно больше подростков находятся в рамках одобренных нами настроек», - поясняется в официальном заявлении компании. »Meta уже некоторое время использует искусственный интеллект для определения возрастных диапазонов своих пользователей, но признается, что это одна из самых больших проблем, с которыми она сталкивается. Именно поэтому они хотят, чтобы внедряемая технология была как можно более точной. В случае ошибки у пользователя будет возможность связаться со службой поддержки и изменить конфигурацию». Алехандро Дутто, директор по безопасности компании Tenable в Латинской Америке и Карибском бассейне, объяснил LA NACION, что искусственный интеллект может поддерживать обнаружение несовершеннолетних с помощью анализа изображений и видео для оценки видимого возраста, обработки естественного языка и поведенческих моделей, анализирующих графики, содержание и тип взаимодействия. По его словам, он также может включать добровольную биометрическую верификацию. Однако внедрение искусственного интеллекта сопряжено с определенными рисками. С одной стороны, говорит Датто, новая технология может иметь ограниченную точность и может быть спутана с изображениями других людей. С другой стороны, многие рабочие нагрузки с искусственным интеллектом в облаке имеют неправильную конфигурацию и неправильно управляемые привилегии. «ИИ должен использоваться в системах, сочетающих человеческий контроль, добровольную проверку и четкие политики. Это не волшебная пуля. Он должен применяться ответственно», - сказал он, - „Он также представляет собой этические и юридические проблемы, непосредственно связанные с конфиденциальностью и согласием“. Регайраз отметил, что цель Meta правильная, но уточнил, что цель не всегда оправдывает средства. «В этой связи Регайраз отметил, что многие последствия внедрения искусственного интеллекта для проверки личности будут зависеть от правил, которые применяются в зависимости от места использования платформы. В Аргентине, например, правила конфиденциальности и защиты данных немногочисленны и устарели, что позволяет компаниям продвигать эти права, не нарушая правил, признался Регайраз. Одним из наиболее важных ограничений является право на неприкосновенность частной жизни и защиту персональных данных, которое, когда речь идет о несовершеннолетних, подразумевает необходимость применения более жестких мер безопасности из-за деликатности», - сказал Регайраз. Для преодоления этой сложности эксперт предложил эффективный способ - провести оценку воздействия на персональные данные до внедрения систем искусственного интеллекта с целью выявления связанных с ними рисков, планирования управления ими и мер по смягчению последствий, которые будут сочтены необходимыми, чтобы не ухудшить конфиденциальность. В условиях все более сложной цифровой экосистемы, поддерживаемой облачными сервисами искусственного интеллекта, крайне важно не унаследовать небезопасные настройки по умолчанию и не недооценивать риски, исходящие от третьих сторон», - считает Дутто. Безопасность несовершеннолетних не может зависеть только от технологий: она также требует осведомленности, образования и хорошо реализованных мер контроля со стороны взрослых и организаций, в которых каждая из сторон живет своей повседневной жизнью«, - добавил он.»«»"»