Экстремальный контент: почему экс-модератор Facebook подала на компанию в суд

По словам женщины, модераторам Facebook постоянно приходится иметь дело с тысячами фотографий и видеозаписей, на которых изображены сцены насилия над детьми, пытки, казни и другой неприемлемый контент.
В судебном иске говорится, что Facebook не осуществляет мер для того, чтобы создать для работников «безопасное рабочее пространство».
В самой же компании говорят, что у работников есть полный доступ к «ресурсам, связанных с психическим здоровьем».
По словам сколы, из-за «невероятно токсичных и экстремально страшных изображений», которые ей приходилось видеть на работе, у нее развилось «посттравматическое стрессовое расстройство».
В иске также сказано, что Сколы могут поддержать тысячи нынешних и бывших модераторов Facebook.
В ответ Facebook обнародовал официальное заявление: «Мы осознаем, что эта работа очень часто может быть непростой. Именно поэтому мы серьезно заботимся о наших модераторов, устраивая тренинги, предоставляя бонусы и доступ к психологической поддержке», — говорят в Facebook.
В последнее время руководство соцсети активно критикуют за пассивность в борьбе с фейковыми новостями и языком ненависти.
Сейчас в Facebook работают около 7500 модераторов, которые просматривают контент, опубликованный пользователями. Критики призывают компанию увеличить количество таких специалистов.
Facebook также использует систему искусственного интеллекта, которую постепенно учат отличать неприемлемый контент. Цель — усовершенствовать ее настолько, чтобы со временем полностью отказаться от необходимости нанимать людей.
Комментарии