Модерация контента, предназначенного для детей: опыт Великобритании
Обратно к статьям

Модерация контента, предназначенного для детей: опыт Великобритании

В современной цифровой среде дети регулярно сталкиваются с нежелательной или вредоносной информацией, оказывающей на них зачастую сильное деструктивное воздействие. Активное распространение различных устройств, позволяющих в любое время и в любом месте получать доступ к пользовательскому контенту, усугубляет проблему.


В связи с чем модерация контента, предназначенного для детей, становится важным аспектом обеспечения безопасности и благополучия юных пользователей Интернета. В зарубежных странах принимаются различные меры по снижению этих рисков, которые основываются на таких подходах к модерации контента, как его автоматическая фильтрация, ручная модерация, возрастная верификация, родительский контроль и использование специальных социальных программ.

Одной из стран, добившейся значительных успехов в этой области является Великобритания, которая имеет строгую законодательную базу, регулирующую защиту детей в Интернете. Ее ключевыми документами являются:

  • Закон о защите данных (Data Protection Act 2018, UK DPA), принятый в 2018 году. В соответствии с положениями данного документа, регламентирующим защиту прав детей на конфиденциальность в Интернете, был разработан и внедрен свод правил, содержащий рекомендации и требования по разработке соответствующих возрасту информационных сервисов, предназначенных для детей. 
  • Кодекс поведения онлайн-сервисов для детей (Age-Appropriate Design: A Code of Practice for Online Services, AADC), также известный как «Детский кодекс», был принят в 2020 году. Он определяет требования к деятельности онлайн-сервисов, которые могут использоваться детьми, и предписывает внедрение соответствующих мер защиты, обеспечения конфиденциальности и безопасности. Кодекс имеет экстерриториальный принцип действия – его должны соблюдать и иностранные компании.

Сфера применения AADC обширна и охватывает множество онлайн-сервисов:

  • любые мобильные или веб-приложения, к которым могут получить доступ дети;
  • онлайн и оффлайн игры, которые могли бы привлечь юную аудиторию;
  • умные игрушки и устройства Интернета вещей, которыми может пользоваться ребенок;
  • новостные онлайн-платформы, которые могут быть доступны детям.
Важно отметить, что даже если дети не являются основной аудиторией сервиса, но есть вероятность, что они могут получить доступ к нему, онлайн-платформа обязана соблюдать «Детский кодекс». Это означает, что сервису необходимо принимать упреждающие меры безопасности и конфиденциальности юных пользователей, обеспечивая им безопасный онлайн-опыт в соответствии с их потребностями.

Закон о безопасности в интернете (Online Safety Bill) 2023 года – направлен на борьбу с вредоносным контентом, включая кибербуллинг, материалы сексуального характера и дезинформацию. Обязывает платформы принимать меры для защиты детей. Закон в основном распространяется на два вида сервисов:
  1. различные приложения и сервисы, делающие доступным контент, произведённый, загруженный или распространённый другими пользователями (например, социальные сети).
  2. поисковые Интернет системы или любой другой сайт, который включает в себя функциональность поисковой системы. 
Кроме того, он также распространяется на некоторые онлайн-форумы и онлайн-игры.

Документ требует от онлайн-платформ принятия мер против распространения незаконного или законного, но вредоносного контента, размещаемого пользователями. Платформы, не выполняющие это требование, подвергаются штрафам в размере до 18 миллионов фунтов стерлингов или 10% от их годового оборота, в зависимости от того, какая сумма больше. Закон также наделяет Ofcom (британское агентство, регулирующее работу теле- и радио-компаний, а также почтовой службы) полномочиями блокировать доступ к конкретным веб-сайтам. 

Великобритания использует комбинированный подход к модерации предназначенного для детей контента, включающий следующие методы:

  • Автоматическая фильтрация – использование искусственного интеллекта и машинного обучения для выявления и блокировки вредоносного контента. Такие платформы, как YouTube и TikTok, осуществляющие свою деятельность в цифровом пространстве Королевства, используют алгоритмы для обнаружения и удаления вредоносного контента.
  • Ручная модерация – привлечение специалистов для проверки контента, который не может быть однозначно классифицирован автоматическими системами. Социальные сети, такие как Facebook* и Instagram*, активно используемые гражданами Великобритании, имеют команды модераторов, которые анализируют жалобы пользователей.
  • Возрастная верификация – внедрение систем проверки возраста для ограничения доступа детей к запрещённой по ней информации. Все онлайн-платформы детского контента в соответствии с AADC обязаны внедрять инструменты проверки возраста (подробнее об этом ниже). Платформы Netflix и BBC iPlayer, например, используют возрастные рейтинги и запросы подтверждения возраста.
  • Родительский контроль – предоставление родителям инструментов для ограничения доступа детей к определенным сайтам и приложениям. К примеру, такие программы и приложения, как Google Family Link и Apple Screen Time, позволяют родителям устанавливать необходимые ограничения.
  • Образовательные программы – проведение кампаний по повышению цифровой грамотности среди детей и родителей, в частности инициативы британского центра безопасного интернета (UK Safer Internet Centre, UKSIC). Его онлайн-платформа помогает выявлять угрозы и вредоносную информацию в Интернете, а также предоставляет важные рекомендации, ресурсы, образовательные материалы, которые помогают обеспечить безопасность детей и подростков.
Кроме того, социальные сети, такие как TikTok, Instagram* и Snapchat в соответствии с требованиями британских регуляторов внедряют различные инструменты, обеспечивающие модерацию контента. Например, TikTok внедрил функцию «Семейная синхронизация», позволяющую родителям управлять настройками конфиденциальности своих детей. Видео приложение YouTube Kids от одноименного сервиса предоставляет версию службы, ориентированную на детей, с выбором контента, функциями родительского контроля и фильтрацией видео, которое не считается подходящими для детей 12 лет и младше.

Сервис видео по запросу BBC iPlayer, доступный на широком спектре устройств, включая мобильные телефоны и планшеты, персональные компьютеры и смарт-телевизоры использует строгую систему возрастной верификации и родительского контроля. Поисковые системы Google и Bing используют фильтры для блокировки запросов, касающихся запрещенной инфоромации. Игровые платформы: Xbox и PlayStation предоставляют родителям возможность контролировать игровой опыт детей.

Важным техническим аспектом модерации предназначенного для детей контента являются технологии определения возраста. В «Детском кодексе» приводятся некоторые рекомендуемые способы определения возраста пользователя. В частности они предполагают: обозначение возраста самим пользователем, использование искусственного интеллекта, сторонние службы проверки возраста, так называемые ID, т.е. идентифицирующие документы (паспорт или другой документ, выдаваемый органами власти), применение биометрии. Список не является окончательным и в случае необходимости может быть дополнен.

Ведущей организацией, которая осуществляет сертификацию и тестирование систем идентификации личности и проверки возраста в Великобритании является Ассоциация по сертификации возрастных проверок (Age Check Certification Scheme, ACCS).

ACCS сертифицирует компании в соответствии с кодексом AADC, обеспечивая соблюдение правил для онлайн-сервисов, ориентированных на детей. Оценка и тестирование осуществляется Ассоциаций по различным направлениям, например, анализ систем проверки личности на соответствие определенным требованиям, тестирование биометрических систем на предмет обнаружения попыток подмены (проверка на «живость») и др. 

ACCS осуществляет сотрудничество с компаниями IDVerse, VerifyMy и платформой Privately, которые проводят исследования по разработке технологий проверки возраста и тестирования. Например, Privately создает безопасную для детей среду, при помощи своего алгоритма для объединения голоса, изображения и, при необходимости, текста для верификации возраста.

Таким образом, благодаря реализации комплекса мер как правового, так и технологического характера, Великобритании удалось добиться  серьезных результатов по эффективному ограничению доступа детей к нежелательному и вредоносному контенту и обеспечению их безопасности в цифровой среде. 

*принадлежит Meta, которая признана экстремистской организацией и запрещена на территории РФ.

Краткое наименование: АНО «Центр глобальной ИТ-кооперации».

ИНН: 714467033. КПП: 770301001.ОГРН: 1207700468139.

Юридический адрес: 125009, г. Москва, Тверской бульвар, д.14, стр.1, этаж 6, помещ. I, офис 6.

Эл.почта: info@cgitc.ru. Телефон/Факс: + 7 (495) 221 56 06.