Программа распознования фейковых новостей

Умная программа распознает тексты, наделенные типичными признаками ложных сообщений. Помимо речевых оборотов, программа анализирует также метаданные о времени записи или частоте публикаций. Таким образом можно, в частности, определить ботов в социальных медиа.
Несмотря на то, что фейковые новости имеют длительную историю, их влияние еще никогда не было столь определяющим, как сегодня. Ведь умышленно опубликованные в социальных сетях ложные новости распространяются очень быстро. Это превращает их в уникальное средство воздействия на мысли большого количества людей и целенаправленной манипуляции ими.
Технология фейковых новостей функционирует так хорошо и потому, что профессионально созданные фейки очень похожи на настоящие новости.
Как можно противодействовать ложным новостям?
Ученые уже разработали алгоритмы, которые могут идентифицировать вирусные новости в Facebook, Twitter и других социальных сетях — и так можно быстро проверить сообщения на правдивость. Несколько дальше пошла разработка ученых во главе с Ульрихом Шаде из Фраунгоферского института коммуникаций, обработки информации и эргономии в Вахтберге. Их алгоритм распознает новости, имеющие типичные признаки ложных сообщений.
Чтобы разработать своего автоматического «ловца» фейковых новостей, ученые сначала собрали большое количество серьезных примеров, а также тексты, которые пользователи считали фейковыми новостями. Этот материал они использовали как учебный для компьютерной программы, способной к самообучению.
Таким образом алгоритм научился, как можно разоблачить ложные новости. Это могут быть, например, определенные формулировки или сочетания слов, в конце концов, речевые ошибки. Ведь часто фейковые новости создают не носители языка, говорит Ульрих Шаде. В таких случаях неправильные тире, орфография, падеж или построение предложения будут указывать на то, что сообщение может быть фейковым. Также признаком фейковых новостей могут быть неуместны высказывания и слишком детальные формулировки.
Однако программа ученых анализирует не только текст — она анализирует метаданные, которые могут выдать фейк: когда определенный твит опубликовали и как часто определенный отправитель делает заметки. Так, время публикации может указывать, например, на то, из какой страны и какой временной зоны его отправили. Высокая частота публикации указывать на социального бота — это повышает вероятность того, что опубликованная им новость окажется фейком.
Кроме того, новая программа распознает так называемый язык нетерпимости — высказывания, унижающие людей, натравливают друг на друга или призывают к ненависти и насилия. Ученые сообщают, что такие сообщения часто ссылаются на фейковые новости. «Здесь важно разработать классификатор, который бы идентифицировал однозначные случаи. Такими могут быть, например, высказывания как «политический хлам» или «нигер», — пояснил Шаде.
Ученые надеются, что их инструмент в будущем поможет отслеживать в сети вымышленные новости и искаженные факты. Они подчеркивают: система может приспособиться к различным видам текста. «Нашу программу можно индивидуально адаптировать и натренировать для каждого клиента», — заметил Шаде.
Комментарии