• Вы находитесь тут:
  • Bad Android
  • Новости
  • Журналист устроился модератором в Facebook и узнал как на самом деле соцсеть блокирует контент

Журналист устроился модератором в Facebook и узнал как на самом деле соцсеть блокирует контент

Журналист британского канала Channel 4 тайно устроился на работу модератором в компанию, которая является подрядчиком Facebook.


Facebook

Соцсеть обычно не нанимает модераторов напрямую и взамен сотрудничает с другими компаниями, которые предоставляют такие услуги. Одна из них — CPL Resources, которая находится в Дублине. Это крупнейший модераторський центр в Великобритании. Еженедельно он обрабатывает миллионы постов, а его работники решают игнорировать их, удалить или пометить как «беспокоящие».

«Иммунитет» от модерации для избранных

Как удалось выяснить Channel 4, Facebook не блокирует контент крайне правых групп, таких как Britain First страницы правых активистов, как Томми Робинсон (Tommy Robinson). Более того, в них есть даже специальный иммунитет, на уровне со страницами, которые принадлежат медиа или государственным учреждениям. Обычно соцсеть удаляет страницы, на которых опубликованы пять или больше постов, нарушающих правила Facebook. Среди них — и язык вражды, которая часто фигурирует в постах таких радикальных групп. Но в случае с этими страницами, их направляют на модерацию не сторонних подрядчиков, а штатных работников соцсети.

Fu

Как объяснил один из модераторов, «у них (страниц) есть много подписчиков, так что они генерируют много доходов для Facebook». Кроме того, Facebook учит своих подрядчиков игнорировать видео с насилием над детьми, если нет доказательств того, что герои видео несовершеннолетние.

Например, под блокировку не попал ролик, на котором взрослый человек бьет ребенка — а это видео распространили 44 тысяч раз. На момент выхода документальной ленты Channel 4 это видео было до сих пор доступно. Не был заблокирован и мем, на котором маленькую девочку держат головой в ванне с подписью «когда твоя дочь влюбилась в черного мальчика».

Facebook все отрицает

После выхода материала Facebook выпустила официальное заявление, в котором признала, что делает ошибки, но проведет расследование относительно того, как решить эти проблемы, чтобы они не повторялись в будущем.

«Мы хотим объяснить, что мы удаляем из Facebook контент, который нарушает наши стандарты, независимо от того, кто его публикует», — говорится в заявлении компании.

А система модерирования, которую описывает Channel 4, предусматривает лишь то, что некоторые публикации пересматриваются дважды: сперва модераторами подрядчиков и, при необходимости, вторично работниками самой Facebook.

Вице-президент компании из публичной политики Ричард Аллен (Richard Allen) говорит, что проблема в том, что для подготовки модераторов использовались старые учебные материалы и примеры. И компания уже делает шаги, чтобы устранить проблему.

Контент

Руководитель управления глобальной политики Facebook Моника Бикерт (Monika Bickert) также отвергла обвинения в том, что соцсеть не блокирует контент с языком вражды и страницы крайних правых через материальную выгоду.

«Было высказано предположение, что мы закрываем глаза на негативный контент через наши коммерческие интересы. Это не правда. Создание безопасной среды, где люди со всего мира могут общаться и делиться — это ключевое условие для долгосрочного успеха компании», — написала она.

Модерацию Facebook критикуют не впервые

Типичный модератор

Вопрос к тому, как именно Facebook модерирует контент и как происходит подготовка модераторов, возникали и раньше. В прошлом году газета The Guardian получила в свое распоряжение внутренние правила Facebook относительно модерирования страниц. В нем было около 100 разнообразных инструкций и все они очень запутанные. Например, если на опубликованной фотографии есть сцены жестокого обращения с животными, то удалять их модератор имеет в том случае, если они вызывают ненависть. Видеозаписи насилия над детьми не удаляется, если оно не имеет сексуального характера и не содержит «садистские аспекты». А на принятие решений модераторам часто дается около 10 секунд.

Тогда же издание The Verge пообщалось с бывшими сотрудниками Facebook, которые тоже рассказали про модерацию контента в соцсети. Оказалось, что их совсем не готовили к фильтрации фейков и пропаганды. В целом политика компании в отношении распространения контента, его модерации и блокировки остается крайне непрозрачной.

Несколько месяцев назад модератор Сара Кец (Sarah Katz) рассказала о том, как в 2016 году она 8 месяцев проработала на агентство, была подрядчиком Facebook. Ее работа заключалась в проверке жалоб пользователей Facebook на недопустимое содержание. В среднем на одно сообщение у модераторов была минута. За восьмичасовой рабочий день модераторы в среднем просматривали примерно 8 000 сообщений. Сара Кец пожаловалась на сильное психологическое давление из-за того, что ей приходилось весь день просматривать видео и фото со сценами насилия.

«Если бы мне предложили психологическую помощь, то я скорее бы всего ею воспользовалась. Конечно, они нас предупреждали, но предупреждение то, что ты реально видишь, — совсем разные вещи», — рассказала она.

Сара также заметила, что со временем модераторы теряют чувствительность к насилию. По ее словам, правила модерации были более жесткие по удалению порнографии, чем относительно изображения жестокости. Кроме того, на то время проблеме фейковых новостей соцсеть не придавала большого значения.

Facebook даже после ряда скандалов с утечкой данных сторонним компаниям и выявлением фактов слежки за пользователями остается одной из самых популярных соцсетей в мире. В прошлом году число пользователей Facebook достигло двух миллиардов человек. По данным отчета Digital in 2018, люди в 2018 году больше всего пользовались именно Facebook .

Мысли №11 Delete FaceBook

0

Комментарии


Чтобы оставить комментарий, пожалуйста, авторизируйтесь!
  • Вы находитесь тут:
  • Bad Android
  • Новости
  • Журналист устроился модератором в Facebook и узнал как на самом деле соцсеть блокирует контент
  • Вы находитесь тут:
  • Bad Android
  • Новости
  • Журналист устроился модератором в Facebook и узнал как на самом деле соцсеть блокирует контент