Модерация контента в условиях кризиса
Модерация контента в условиях кризиса
Елена Жабинская · 05.21.2020

С начала 2020 года тема пандемии COVID-19 закрепилась не только в повестке СМИ, но и в онлайн-пространстве. К сожалению, информация не всегда была достоверной, и ее количество ежедневно росло. Когда ситуация приняла серьезные обороты, интернет-компании внедрили новые правила публикаций. Модерация контента в условиях кризиса стала, без преувеличений, жизненной необходимостью.

Например, генеральный директор Google и Alphabet Сундар Пичаи заявил, что YouTube удалил тысячи видео с ложными сведениями о COVID-19. В Twitter уже в марте мониторили полтора миллиона аккаунтов, где был замечен потенциально опасный и ложный контент. А Facebook временно запретила приглашать пользователей на мероприятия, которые нарушают требования самоизоляции.

Безусловно, в таких онлайн-гигантах, как Google, Twitter, Facebook и TikTok модерация контента - стандартный процесс. Отслеживание и удаление оскорбительных и опасных текстов, изображений, видео позволяют защитить сообщество от вредоносного контента. Так, за год ВКонтакте заблокировала 6,7 миллионов единиц контента, связанного с поощрением самоубийств или нанесения увечий.

Во время пандемии компании столкнулись с новым вызовом — массовым распространением фейковых новостей, которые не несут оскорбления или прямой вред, но могут иметь потенциально опасные последствия. Среди подобного контента: способы лечения коронавируса, его симптомы, количество заразившихся, источники вируса. Дезинформация может ввести в заблуждение, побудить принять опасные для здоровья меры и создать панику.

Модерация контента имеет принципиальное значение для бизнеса: 27% респондентов исследования Business Insider сказали, что откажутся от пользования онлайн-платформами, допускающими вредоносный и недостоверный контент. Чтобы предотвратить публикацию подобных сообщений, компаниям следует определиться со стратегией модерации.

Оптимальной стратегией можно считать смешанный подход, когда человеческая экспертиза дополняется компьютерными алгоритмами. Культурный, социальный, психологический смысл могут ускользнуть от алгоритма, поэтому последнее слово в спорных ситуациях должно оставаться за модератором.

Ручная модерация подразумевает человеческий контроль за публикуемым контентом. Он проверяется на соответствие законодательным нормам и стандартам платформы. Автоматизированная модерация — благодаря технологии распознавания текстов и изображений — поможет при высоких объемах публикуемого контента, отслеживая и отмечая нарушения для рассмотрения модератором.

Сами пользователи также могут участвовать в модерации контента. Возможность "пожаловаться" на чью-то публикацию уже интегрирована в самые популярные социальные сети. Пользовательская модерация эффективна как вспомогательный инструмент, но принимать окончательное решение об удалении контента должен модератор.

Качественная модерация контента в условиях кризиса поможет компаниям уберечь сообщество от потенциальных рисков и сохранить репутацию. Мониторинг, идентификация и удаление недостоверных сообщений о коронавирусе оградит пользователей и их близких от сведений, которые могут навредить здоровью.

Как изменилась модерация контента в условиях кризиса в вашей компании? Какие меры вы предпринимали, чтобы защитить пользователей? Свяжитесь со мной, обсудим!

Фото автора cottonbroPexels