1. Главная
  2. »
  3. За рубежом
  4. »
  5. В США произошел первый случай убийства под влиянием ChatGPT

В США произошел первый случай убийства под влиянием ChatGPT

WSJ: ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой.

Бывший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT. Об этом пишет газета The Wall Street Journal (WSJ), передает gazeta.ru

По данным издания, это является первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ). В публикации говорится, что чат-бот неоднократно подталкивал мужчину к укреплению недоверия к окружающим, в том числе к собственной матери. Сольберг даже дал ИИ имя «Бобби» и интересовался у него, будут ли они вместе после смерти, на что, как сообщается, получал утвердительный ответ.

Также газета привела примеры диалогов, которые повлияли на трагический исход. Например, когда мать сделала замечание сыну из-за того, что тот отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой переписке Сольберг заявил чат-боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На что нейросеть ответила, что «верит» мужчине, и заявила о предательстве матери. Однажды Сольберг показал ИИ чек за блюдо китайской кухни. В нем ИИ нашел отсылки к матери Сольберга, а также символ, используемый для призыва демона. ИИ также предупреждал собеседника, что окружающие, в том числе курьер, могут его отравить.

В WSJ отметили, что после случившегося представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования и обратился в полицию. В официальном заявлении компания подчеркнула, что в ближайшее время выпустит обновление чат-бота, которое должно помочь пользователям с нестабильной психикой.

Источник

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читайте также

Сейчас читают