Как развитие технологий влияет на изменение этических норм. Перевод статьи The Guardian

Оригинал статьи был опубликован 21 января 2018 года в газете Guardian.

Искусственный интеллект без сомнений даст обществу много преимуществ, но обеспокоенность относительно его способности принимать решения означает, что вклад людей остается очень важным.

Журналистика – это во многом сотрудничество: репортеры сотрудничают с источниками, писатели с редакторами, юристы консультируют издателей, продюсеры работают с дистрибьюторами, а аудитория дает обратную связь. Стремительное развитие искусственного интеллекта означает, что журналисты, вероятнее всего, будут сотрудничать все больше и больше с «думающими» машинами. Само слово относится скорее ко всей индустриальной и постинудстриальной эпохе, но вот «роботы» – это уже нечто новое. Люди заняты созданием мозга, если не сказать умов. Поэтому этот текст про искусственный интеллект, также известный как ИИ. Использование ИИ в журналистике изучается, анализируется и даже используется уже некоторое время. Так же, как и люди (а порой и лучше), искусственный интеллект может собирать информацию, обрабатывать и анализировать ее, принимать решения, говорить или писать. Однако принятие решений в сфере журналистики часто предполагает этический выбор, основанный на давних ценностях, прецедентах и редакционных стандартах. Подобная подотчетность помогает поддерживать доверие, от которого напрямую зависит общественно-демократическая польза самой журналистики.

Наши, человеческие, идеи о профессиональной подотчетности основаны на допущении, что объяснение возможно. Призванные к ответу, мы объясняем. Суд дает основания для вынесения решения; министры отвечают на вопросы в парламенте; чиновники составляют годовые отчеты; в то время как в журналистике обрабатываются жалобы читателей.

Не каждый искусственный интеллект может справиться с подобным допущением. Автор статьи «Можно ли научить ИИ объяснить самого себя?» в New York Times написал на эту тему следующее: «Искусственные интеллекты часто преуспевают, развивая совершенно новые способы видения и даже мышления, которые непостижимы для человека. Однако неспособность машин различать, что именно они делают, когда обучают себя новым навыкам, стала центральной проблемой исследований ИИ».

Использование искусственного интеллекта поднимает ряд важных этических вопросов для многих сфер жизни: для судов, которые используют его для вынесения приговоров, для операторов систем вооружения, для медицинских специалистов.

Потенциальные выгоды от ИИ так же велики, как и ответственность за принятие решений, и специалисты это понимают. Поэтому привлечение машин к ответственности будет развиваться и улучшаться. Пока это работает не так хорошо, любое использование требует надзора. В сфере журналистики стоит пересмотреть кодексы этики, чтобы сделать конкретные положения для уже наступающего будущего. Например: «При использовании искусственного интеллекта для увеличения материалов, оцените его возможности в соотвествии с настоящим кодексом. Программное обеспечение, которое «думает» становится все более полезным, однако оно не обязательно будет обрабатывать информацию этически».

Было бы неразумно описывать каждую деталь в положении сейчас, потому что ИИ развивается слишком быстро. В настоящее время кодексы могут просто просить журналистов, которые используют искусственный интеллект, обращать внимание на совместимость процессов машины с фундаментальными человеческими ценностями.

Проиллюстрируем некоторые примеры, как проблемы искусственного интеллекта могут взаимодействовать с журналисткой этикой.

Некоторые машины были обучены с использованием огромных массивов данных, точность и обработка которых может быть под сомнением. Если журналистика, основанная на исследованиях с использованием ИИ, допустит ошибки, аудитория может потерять доверие к средствам массовой информации. Есть минимум несколько тому причин: предоставляемая информация – низкого качества, а способность надлежащим образом управлять машиной – под сомнением.

Некоторые данные, собранные и обработанные с помощью ИИ, могут оказаться неприемлемыми и даже оскорбительными по этническим, гендерным или другим признакам из-за использованных человеком настроек (это могло быть сделано даже на бессознательном уровне). Соответственно, журналистика, опирающаяся на подобный механизм, также может быть дискредитирована.

ИИ может собрать хороший материал, но не вполне правильными способами. Подобную информацию не обязательно исключать вовсе (особенно, если она имеет общественный интерес), однако стоит тщательно взвесить все «за» и «против», а также рассмотреть контекст. В течение многих лет кодексы журналистской этики требовали четко выраженного общественного интереса для публикации любой неоднозначной информации. Это связано в первую очередь с доверием читателя: нельзя преследовать истину, используя обман.

Один из способов решения проблемы доверия – прозрачность используемых методов, в том числе и роль ИИ в работе издания.

 

 Данная публикация подготовлена в рамках проекта, финансируемого  за счет гранта Президента Российской Федерации на развитие гражданского общества, предоставленного Фондом президентских грантов Автор перевода: Алена Болдырева

   

Подать жалобу

Проект реализуется при поддержке Фонда Президентских грантов, единого оператора грантов Президента Российской Федерации на развитие гражданского общества

Сайт Фонда президентских грантов