По хорошей традиции мы собрали для вас наиболее интересные события и материалы из мира журналистики и этики за прошедший месяц.
Модераторы тоже люди
В 2020 закроется крупная компания Cognizant, занимающаяся проверкой информации на предет языка вражды, неподобающего контента и блокировки потенциальных террористов. Организация работала с гигантами вроде Facebook, Google и Twitter.
Модераторы Cognizant признались, что у некоторых диагностировали синдром посттравматического стресса, который связан с ежедневным просмотром графического и тревожного контента. Несколько сотрудников сообщили, что беспокоятся за свою жизнь после угроз со стороны коллег, а другие – о домогательствах и грубом отношении. Все это выяснилось в ходе расследований The Verge. Собственно, именно они и спровоцировали сообщение о закрытии компании Cognizant.
Оригинальный материал: https://www.theverge.com/2019/10/30/20940956/cognizant-facebook-content-moderation-exit-business-conditions-investigation
Репортер на фабрике троллей в Польше
Польская журналистка Katarzyna Pruszkiewicz провела полгода в агентстве Cat@Net, которое якобы занимается пиаром и управлением репутацией в социальных сетях, но на деле все сводилось к управлению фейковыми аккаунтами для создания заданных настроений для избирателей и пользователей в информационном поле.
Она рассказала, как работают подобные фабрики. Например, комментарий от девушки Магда Ростока под статьей о том, как бывший политтехнолог Барака Обамы и Эммануэля Микрона приезжал в Варшаву на встречу с либеральными активистами: «Оппозиция ничего не может предложить. Именно поэтому они пишут ерунду, чтобы пустить пыль людям в глаза». У девушки 4,400 подписчиков. Но на самом деле, ее не существует, а аккаунт ведется наемными работниками.
Такие случаи распространены по всему миру и на всех социальных платформах.
Оригинальный материал: https://www.theguardian.com/world/2019/nov/01/undercover-reporter-reveals-life-in-a-polish-troll-farm
Хотим правду – не хотим платить
Интересное наблюдение опубликовала британская газета PressGazette о соотношении между теми пользователями, которые беспокоятся о фейковых новостях, которые они могут получать, и теми из них, кто готов платить за контент, чтобы этого избежать. Исследование проводилось с охватом преимущественно по странам Европы. Оказалось, что две трети (64%) опрошенных в Великобритании обеспокоены ложной информацией. Это выше, чем в Италии (63%), Германии (56%), Нидерландах (57%), Швеции (48%).
Однако на вопрос, готовы ли они платить за проверенную и качественную журналистику, где материалы и факты вывернутся редакторами, только 15% опрошенных в Великобритании ответили положительно.
Картинка 1
Вероятно, не все так плохо, и читатели с подобной точкой зрения просто уверены, что могут фильтровать информационный шум и не попадаться в ловушки фейков.
Оригинальный материал: https://www.pressgazette.co.uk/two-thirds-of-brits-worried-about-fake-news-but-only-15-per-cent-prepared-to-pay-for-trusted-journalism/
Как лгут графики
Международная журналистская сеть опубликовала материал «Может ли визуализация данных вводить в заблуждение и как этого избежать». Он написан по мотивам книги Альберто Каиро «Как лгут графики». Альберто – глава кафедры визуальной журналистики в Университете Майами.
Каиро описывает наиболее частые ошибки в визуализации данных и дает советы, как их избежать. Например, часто причиной некачественного дизайна графиков становится чрезмерное упрощение автором сложных данных.
Больше практических советов по визуализации и интерпретации графиков в статье IJNET: https://ijnet.org/ru/story/может-ли-визуализация-данных-вводить-в-заблуждение-и-как-этого-избежать
Отчет Facebook с количеством заблокированных постов
Вернемся снова к социальным сетям. Дата-журналист Феликс Рихтер проанализировал доклад Facebook за третий квартал 2019 года, в котором представители социальной рассказали в цифрах о неподобающем контенте и под какие категории чаще всего он попадает. Все это делает в целях противодействия распространению фейковых новостей.
Так, 29 миллионов постов, содержащих сцены насилия или жестокости, были убраны из выдачи или помечены соответствующим флажком с предупреждением, а 99% из них были обнаружены технологией Фейсбука еще до жалоб конкретных пользователей. Большинство из этого контента носят порнографических характер, поэтому система довольно просто его определяет.
Сложнее дела обстоят с автоматическим определением постов с признаками языка вражды. Из 7 млн обнаруженных постов только 80% были помечены как неподобающие самим Фейсбуком.
Картинка 2
Также за третий квартал 2019 года Facebook удалил 1,7 млрд фейковых аккаунтов и около 2 млрд сообщений, в том числе 1,9 млрд спамерских.
Оригинальный отчет Facebook: https://transparency.facebook.com/community-standards-enforcement