1. Главная
  2. »
  3. Технологии
  4. »
  5. Западные издания попались на фейковых статьях: публиковали материалы ChatGPT

Западные издания попались на фейковых статьях: публиковали материалы ChatGPT

Wired и Business Insider удалили десятки материалов, а читатели считают, что подобные прецеденты подрывают доверие к журналистике.

Крупные СМИ и ряд журналистов выступают против искусственного интеллекта. Аргументы стандартны: ИИ часто выдумывает факты, не способен создавать нечто новое, а его стиль слишком примитивен и лишен индивидуальности, передает mentoday.ru

Особенно отличилось издание Wired. Там регулярно выходили большие авторские материалы о проблемах текстов, сгененированных ИИ. Но, как выяснилось недавно, это не уберегло издание от публикации материалов, которые были созданы ChatGPT. И никакие детекторы искусственного интеллекта не помогли. Тексты прошли все внутренние проверки качества.

Как выяснила Press Gazette, в Wired, Business Insider регулярно публиковались материалы за авторством анонимного журналиста по имени Марго Бланшар. Все материалы были сделаны со вкусом, освещали реально интересные темы, поэтому их охотно брали, выплачивая автору щедрные гонорары. Вот только все эти статьи — генерация искусственного интеллекта.

И тут важно понимать: в текстах, которые генерирует ИИ, зачастую нет ничего плохого. Если была проведена качественная редактура, искусственный интеллект опирался на реальные данные, а журналист провел всестороннюю проверку предложенной информации, подобную статью пусть и нельзя считать вершиной журналистского искусства, но она имеет право на существование.

Вот только материалы от Марго Бланшара были от и до сгенерированы ИИ. Там не было реальных историй: искусственный интеллект генерировал сюжеты, выдумывал персонажей, имена и ситуации.

Например, на Wired была опубликована статья «Они влюбились, играя в Minecraft. Затем игра стала местом их свадьбы», написанная в характерном стиле генеративного ИИ и содержащая вымышленных персонажей. Такой истории не происходило. Автор с помощью искусственного интеллекта придумал интересный сюжет, сделал его убедительным с точки зрения журналистики, а редакторы недостаточно хорошо проверили работу, что и привело к фатальным последствиям.

И таких материалов — десятки. Сейчас издания тщательно вычищают подобные работы, указывая, что тексты не соответствуют стандартам качества. Но от дурной славы уже не отмыться. В сети пишут, что подобные прецеденты подрывают доверие к журналистике. Если настолько крупные издания не способны отличить ложь от правды, то как вообще можно верить тому, что написано в интернете?

Впрочем, есть и позитивное пятно в этой истории. После такого громкого скандала в изданиях наверняка поняли — редакторы должны быть настолько дотошными и внимательными, насколько это возможно. А иначе подобные истории будут повторяться снова и снова.

Источник

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читайте также

Сейчас читают