Дайджест событий медиасферы, связанных с журналистской этикой. Ноябрь-2019

По хорошей традиции мы собрали для вас наиболее интересные события и материалы из мира журналистики и этики за прошедший месяц.

 

            Модераторы тоже люди

            В 2020 закроется крупная компания Cognizant, занимающаяся проверкой информации на предет языка вражды, неподобающего контента и блокировки потенциальных террористов. Организация работала с гигантами вроде Facebook, Google и Twitter.

            Модераторы Cognizant признались, что у некоторых диагностировали синдром посттравматического стресса, который связан с ежедневным просмотром графического и  тревожного контента. Несколько сотрудников сообщили, что беспокоятся за свою жизнь после угроз со стороны коллег, а другие – о домогательствах и грубом отношении. Все это выяснилось в ходе расследований The Verge. Собственно, именно они и спровоцировали сообщение о закрытии компании Cognizant.

            Оригинальный материал: https://www.theverge.com/2019/10/30/20940956/cognizant-facebook-content-moderation-exit-business-conditions-investigation

 

            Репортер на фабрике троллей в Польше

            Польская журналистка Katarzyna Pruszkiewicz провела полгода в агентстве Cat@Net, которое якобы занимается пиаром и управлением репутацией в социальных сетях, но на деле все сводилось к управлению фейковыми аккаунтами для создания заданных настроений для избирателей и пользователей в информационном поле.

            Она рассказала, как работают подобные фабрики. Например, комментарий от девушки Магда Ростока под статьей о том, как бывший политтехнолог Барака Обамы и Эммануэля Микрона приезжал в Варшаву на встречу с либеральными активистами: «Оппозиция ничего не может предложить. Именно поэтому они пишут ерунду, чтобы пустить пыль людям в глаза». У девушки 4,400 подписчиков. Но на самом деле, ее не существует, а аккаунт ведется наемными работниками.

            Такие случаи распространены по всему миру и на всех социальных платформах.

            Оригинальный материал: https://www.theguardian.com/world/2019/nov/01/undercover-reporter-reveals-life-in-a-polish-troll-farm

 

            Хотим правду – не хотим платить

            Интересное наблюдение опубликовала британская газета PressGazette о соотношении между теми пользователями, которые беспокоятся о фейковых новостях, которые они могут получать, и теми из них, кто готов платить за контент, чтобы этого избежать. Исследование проводилось с охватом преимущественно по странам Европы. Оказалось, что две трети (64%) опрошенных в Великобритании обеспокоены ложной информацией. Это выше, чем в Италии (63%), Германии (56%), Нидерландах (57%), Швеции (48%).

            Однако на вопрос, готовы ли они платить за проверенную и качественную журналистику, где материалы и факты вывернутся редакторами, только 15% опрошенных в Великобритании ответили положительно.

            Картинка 1

            Вероятно, не все так плохо, и читатели с подобной точкой зрения просто уверены, что могут фильтровать информационный шум и не попадаться в ловушки фейков.

            Оригинальный материал: https://www.pressgazette.co.uk/two-thirds-of-brits-worried-about-fake-news-but-only-15-per-cent-prepared-to-pay-for-trusted-journalism/

 

            Как лгут графики

            Международная журналистская сеть опубликовала материал «Может ли визуализация данных вводить в заблуждение и как этого избежать». Он написан по мотивам книги Альберто Каиро «Как лгут графики». Альберто – глава кафедры визуальной журналистики в Университете Майами.

            Каиро описывает наиболее частые ошибки в визуализации данных и дает советы, как их избежать. Например, часто причиной некачественного дизайна графиков становится чрезмерное упрощение автором сложных данных.

            Больше практических советов по визуализации и интерпретации графиков в статье IJNET: https://ijnet.org/ru/story/может-ли-визуализация-данных-вводить-в-заблуждение-и-как-этого-избежать

 

            Отчет Facebook с количеством заблокированных постов

            Вернемся снова к социальным сетям. Дата-журналист Феликс Рихтер проанализировал доклад Facebook за третий квартал 2019 года, в котором представители социальной рассказали в цифрах о неподобающем контенте и под какие категории чаще всего он попадает. Все это делает в целях противодействия распространению фейковых новостей.

            Так, 29 миллионов постов, содержащих сцены насилия или жестокости, были убраны из выдачи или помечены соответствующим флажком с предупреждением, а 99% из них были обнаружены технологией Фейсбука еще до жалоб конкретных пользователей. Большинство из этого контента носят порнографических характер, поэтому система довольно просто его определяет.

            Сложнее дела обстоят с автоматическим определением постов с признаками языка вражды. Из 7 млн обнаруженных постов только 80% были помечены как неподобающие самим Фейсбуком.

            Картинка 2

            Также за третий квартал 2019 года Facebook удалил 1,7 млрд фейковых аккаунтов и около 2 млрд сообщений, в том числе 1,9 млрд спамерских.

            Оригинальный отчет Facebook: https://transparency.facebook.com/community-standards-enforcement

Поделиться в социальных сетях

Подать жалобу

Проект реализуется при поддержке Фонда Президентских грантов, единого оператора грантов Президента Российской Федерации на развитие гражданского общества

Сайт Фонда президентских грантов