Дайджест событий медиасферы, связанных с журналистской этикой. Февраль-2019

 

Фейки, корпоративная цензура, разрыв контракта фактчекеров с Facebook – рассказываем, что интересного произошло в мире медиаэтики за прошедший месяц. И в качестве дополнения рассмотрим важный вопрос – если робот написал статью, а она оказалась клеветой, кто виноват?

 

Корпоративная цензура в Esquire

В январе в американском издании The Atlantic вышла статья о режиссере Брайане Сингере, который снял фильм «Богемская рапсодия». В материале рассказывается, как он годами домогался (зачастую успешно) несовершеннолетних мальчиков. Но интересна не столько сама статья, сколько история ее выхода.

Написали материал штатные сотрудники Esquire, а вовсе не The Atlantic. Журналист и редактор занимались расследованием секс-преступлений в Голливуде и наткнулись на сюжет про режиссера Сингера. Материал готовился к публикации в Esquire: его вычитывал редактор, визировал юрист, но что-то пошло не так. Материалом заинтересовались в издательском тресте Hearst, который выпускает Esquire.

Как пишет телеграм-канал «я просто текст», сначала главный редактор сказал, что в вышестоящей компании предлагают печатать материал без имени насильника или превратить один материал в серию статей на сайте, что напрямую противоречит первой идее. Затем авторам статьи устроили допрос на предмет источников информации, но ответы, кажется убедили сотрудницу Hearst. Но через пару дней журналистам вновь перезвонил главный редактор и сообщил, что материал не будет выпущен в Esquire ни в каком виде.

Тогда журналисты отнесли материал в The Atlantic, где его и напечатали.

 

Трудности перевода

Ряд крупных СМИ вроде «Первого канала», «Вестей», РИА «Новости» сообщили о заявлении представителя МИД Марии Захаровой. В нем она обвинила французского президента Эммануэля Микрона в распространении ложной информации. На своей странице в Фейсбуке она написала:

«Президент Пятой республики считает, что так называемые прокремлевские СМИ через социальные сети манипулируют французскими СМИ. “Фашисты, ультралевые радикалы и русские”, — так через запятую Президент Франции определил тех, кто, по его мнению, пытается, используя интернет, дестабилизировать обстановку в Пятой республике. Глава государства принял у себя в резиденции нескольких журналистов ведущих французских СМИ и изложил им свое видение внутриполитической ситуации. Макрон считает, что “90 процентов политических движений в Интернете” инспирированы именно перечисленными группами влияния».

В действительности же слово mouvement может переводиться не только как «движение», но и «ход», «поворот сюжета». По мнению издания The Insider, Макрон и правда говорил в своем оригинальном заявлении во французском журнале Le Point, что 90% политических заявлений в интернете по одной вполне конкретной теме – скандалу с его бывшим советником и телохранителем Беналла – сделаны представителями четырех групп: «желтых жилетов», фашистской, ультралевой и пророссийских сфер, а на страницах французской прессы эти точки зрения получают непропорционально много места. То есть фактически, речь не идет о русских в одном ряду с фашистами, которые «инспирируют 90% политических движений».

Также дело коснулось скупки аккаунтов медиаресурсами типа RT и Sputnik. РИА «Новости» написали:

"«По его [Макрона] словам, “желтые жилеты” получали консультации из-за рубежа, а их активность поддерживается “покупными аккаунтами в социальных сетях и троллями”. В их числе он выделил RT и Sputnik».» The Insider считает, что на самом деле Макрон говорил, что официальные каналы связей с общественностью недостаточно активны, а доминирующее положение в интернете занимают представители крайних течений. Кроме того, по его словам, есть те, кто заводит аккаунты в соцсетях, кто занимается троллингом. После этой фразы он продолжает: «Это Russia Today, Sputnik и так далее». Очевидно, он говорит о том, что аккаунты российских пропагандистских СМИ в соцсетях участвуют в кампаниях троллинга.

 

Фактченеры разорвали контракт с Фейсбуком

Алгоритм проверки спорных новостей в социальной сети работает так: пользователь помечает новость как ложную, и она отправится на проверку. Для того, чтобы новость померилась в ленте как «спорная», ее должны проверить двое независимых фактчекеров. При этом для сотрудничества необходимо подписать Международный кодекс стандартов сети фактчекинга.

В феврале стало известно, что фактчекеры из Snopes разорвали свое партнерство с Фейсбук, которое длилось два года. По словам представителя, это стало слишком трудозатратно, потому что фактчекеры вынуждены вручную не только проверять посты, но и помечать в панели управления. И этим занимаются всего 16 человек, у которых нет офиса.

«Не похоже, что мы стремимся сделать проверку фактов третьими лицами более практичной для издателей. Кажется, что мы стремимся сделать это проще только для Facebook. В какой-то момент нам нужно сказать: «Нет. Вам нужно создать API », – сказал генеральный директор компании Винни Грин. «Работа, которую выполняют проверщики фактов, не обязательно должна быть предназначена только для Facebook - мы можем создавать вещи для проверщиков фактов, которые приносят пользу всем, и в том числе Facebook».

 

Робот создал новость, а она оказалась клеветой – кто виноват?

Разбирает этот вопрос медиаисследователь и журналист Петр Георгиев для Школы журналистики штата Миссури.

Тот факт, что роботы с применением машинного обучения пишут новостные заметки для разных сайтов (взять хотя бы гиганта Assosisated Press) – уже давно не новость. Мы даже рассматривали вопросы использования искусственного интеллекте в СМИ в разрезе медиаэтики:

Казалось бы, роботы должны работать слаженно и безупречно – на они и роботы. Тем не менее, при всей своей очевидной непогрешимости, боты, как и их человеческие предшественники, также не застрахованные от ошибок. В журналистике одной из худших ошибок является клевета. Итак, как суды должны рассматривать дела, в которых робот генерирует клеветническое заявление? Правовые и технические эксперты США считают, что сейчас самое время принять решение.

Известно, что сам робот не может действовать со злым умыслом. Но вот его разработчик – может. Хотя с другой стороны, создатель машины не может предугадать каждого ее действия. В любом из случаев, ответственность за распространение лжи будет нести новостная организация. Причем в буквальном смысле, ведь в отличие от обычной статьи, читатель не увидит имен в подписи к статье робота.

Хотя в Америке действует Первая поправка, которая защищает журналистов в судебных процессах по обвинению в диффамации, и государственные чиновники, например, не могут получить компенсацию и выиграть дело без четкого доказательства, что клевета была по злому умыслу и намеренное.

А вот с алгоритмами эта поправка не работает. Так что вопросов пока что явно больше, чем ответов.

Первый и важный шаг для СМИ – радикальная прозрачность на всех этапах при работе с ИИ. Четко разграничивать и показывать читателю, где новость пишет робот, а где человек.

 

 

 Данная публикация подготовлена в рамках проекта, финансируемого  за счет гранта Президента Российской Федерации на развитие гражданского общества, предоставленного Фондом президентских грантов Автор текста: Алена Болдырева

 

   

Подать жалобу

Проект реализуется при поддержке Фонда Президентских грантов, единого оператора грантов Президента Российской Федерации на развитие гражданского общества

Сайт Фонда президентских грантов