Модерация контента: кто решает, что можно публиковать?
Обратно к статьям

Модерация контента: кто решает, что можно публиковать?

Сегодня каждый из нас, кто пользуется социальными сетями сталкивается с понятием модерации контента, даже если не думает об этом напрямую. Например, ты загружаешь смешное видео или постишь мемы, а через несколько минут получаешь уведомление: «Ваш контент удалён за нарушение правил». Это вызывает раздражение, непонимание и даже вопросы: кто устанавливает эти правила? Почему мой пост удалили, хотя у друга почти такой же контент остался? Давай разберёмся, как устроена модерация контента, кто принимает решения о допустимости публикаций и почему интернет-платформы так строго следят за тем, что публикуют их пользователи?

Что такое модерация контента?

Модерация контента – это процесс, в ходе которого социальные сети, видеохостинги, форумы и другие онлайн-платформы проверяют и регулируют публикуемый пользователями контент. Речь идёт о любых фото, видео, текстах, комментариях и даже голосовых сообщениях. Цель модерации – создать безопасную, уважительную и комфортную среду для пользователей, а также контролировать соответствие контента местному законодательству.

Казалось бы, простой процесс: есть правила, и всё, что им противоречит, удаляется. Но в реальности всё намного сложнее. Модерация это не просто система фильтров, автоматически удаляющая неподходящее, это ещё и огромная ответственность платформ за то, что видят их пользователи.

Почему вообще нужны правила для контента?

Представь на минуту, что в твоей любимой социальной сети не существует никаких правил. Все могут публиковать что угодно, без ограничений. Звучит как свобода, правда? Но вместе с этим в ленте могут появляться призывы к насилию, сцены жестокости, оскорбления или даже незаконные материалы. Это не только разрушает уютную и дружелюбную атмосферу, но и может быть реально опасно, ведь не все люди способны отличить правду от фейков или вовремя защитить себя от вредоносной информации.

Вот почему онлайн-платформы вводят правила публикаций. Они существуют для того, чтобы сделать платформу удобной и безопасной для всех. Однако определить границу между «допустимым» и «недопустимым» – это сложная задача.

Кто разрабатывает правила? 

Каждая платформа создаёт набор своих правил для модерации, исходя из нескольких факторов: 
  1. Законы. Площадки, такие как RUTUBE, соблюдают актуальное законодательство Российской Федерации. Например, запрещено размещать контент, пропагандирующий дискриминацию или насилие, нарушающий законодательство о рекламе или авторском праве. Это обязывает платформы подстраивать свои правила под законы и модерировать в соответствии с ними контент.
  2. Ценности компаний. У каждой платформы есть своя миссия. Например, платформа RUTUBE предоставляет всем авторам возможность делиться своим мнением и не цензурирует контент по примеру Запада. Главное, чтобы он соответствовал законам Российской Федерации. Сервисы строго следят за тем, чтобы контент не был оскорбительным или опасным, особенно для молодых пользователей.
  3. Правила могут меняться и подстраиваться в зависимости от того, что нужно аудитории, поэтому многое зависит от нас самих. Например, на основании обратной связи от пользователей политика модерации, которая не регламентирована законодательством, может меняться в сторону усиления или ослабления определенных правил. 

Итак, платформы постоянно разрабатывают и пересматривают правила. Это может касаться таких вещей, как изображение обнажённого тела, язык ненависти, насилие, фейки и многое другое. 

Как это работает на практике? 

Модерацией на платформах занимаются два основных «игрока»: люди (модераторы) и машины (алгоритмы искусственного интеллекта). Вот как они работают:
  1. Алгоритмы ИИ. Сначала контент «просматривают» алгоритмы. Например, если ты загружаешь видео со сценами насилия или с запрещённой музыкой, алгоритм может заметить это и сразу заблокировать загрузку. ИИ обучен распознавать ключевые слова, изображения, звуки и даже эмоции в текстах. Однако искусственный интеллект не идеален. Например, он может ошибочно удалить невинное фото, сочтя его неподобающим, или не заметить тонкого сарказма в комментарии, который скорее напоминал оскорбление.
  2. Модераторы – люди. Когда алгоритм не уверен, или пользователь оспаривает автоматический бан, то решение принимает человек. У крупных платформ есть специальные команды модераторов, которые вручную проверяют жалобы. Работа модераторов очень сложная. Им приходится просматривать тысячи спорных материалов в день: от жёстких оскорблений до крайне спорных видео. В их обязанности входит выбирать, что соответствует правилам, а что – нет. Комбинация ИИ и человеческой модерации позволяет обрабатывать миллионы публикаций ежедневно!

Почему модерация вызывает споры? 

Модерация часто воспринимается пользователями как цензура. Если твой пост удалили, тебе может показаться, что тебя пытаются заставить молчать, что ущемлены твои права на самовыражение. Также возникают претензии к алгоритмам, которые искажают представление о справедливости. В некоторых случаях это действительно может быть спорным. Например, возникает вопрос свободы слова: где заканчивается право на мнение и начинается реальная угроза другим людям?

Свобода человека заканчивается там, где начинается свобода другого человека. Важно понимать значимость безопасности материалов для всех категорий зрителей. А также то, что уже было подчеркнуто, – фундаментальные правила публикации формируются на основе актуального законодательства.

Как это связано с нами? 

Многие молодые люди начинают задумываться о том, как работают правила социальных сетей, только когда сталкиваются с их последствиями: удалённым постом или временной блокировкой. Тем не менее, стоит помнить, что модерация не строится на желании «контролировать» нас. Она больше направлена на то, чтобы защитить и сделать платформы удобными для большинства.

Каждый из нас тоже может участвовать в этом процессе. Мы можем сообщать о неподходящем контенте, который нарушает правила, или, наоборот, предлагать свои взгляды на то, какие границы должны быть установлены. Зачастую платформы прислушиваются к мнению пользователей, особенно если они объединяются для продвижения определённых изменений.

Как безопасно пользоваться интернетом? 

Лучший способ чувствовать себя свободным в интернете – это знать правила той платформы, которой ты пользуешься. Внимательно изучай, что разрешено, а что нет. Помни, что за каждым баном стоит политика компании, которая формируется исходя из законов страны. Если что-то кажется несправедливым, проверь возможность оспорить это решение.

Кроме того, всегда думай о том, как твой контент влияет на других. Свобода в интернете — это не вседозволенность, это уважение и ответственность.

Модерация, несмотря на свои ограничения – это способ сделать виртуальное пространство лучше.

Емелин Илья Юрьевич
Директор дирекции по работе с контентом, ООО «РУФОРМ» (RUTUBE)

Краткое наименование: АНО «Центр глобальной ИТ-кооперации».

ИНН: 714467033. КПП: 770301001.ОГРН: 1207700468139.

Юридический адрес: 125009, г. Москва, Тверской бульвар, д.14, стр.1, этаж 6, помещ. I, офис 6.

Эл.почта: info@cgitc.ru. Телефон/Факс: + 7 (495) 221 56 06.