Нейросети дают сомнительные советы по питанию и даже подсказывают, как можно скрывать проблемы со здоровьем, утверждают учёные.
Исследователи из Стэнфорда и Центра демократии и технологий предупредили, что ИИ-чат-боты могут представлять серьёзную угрозу для людей, склонных к расстройствам пищевого поведения, передает unian.net
Как сказано в их исследовании, системы вроде ChatGPT, Gemini, Claude и Le Chat выдают сомнительные советы по диетам и даже помогают маскировать симптомы расстройств или создают контент жанра thinspiration — изображения болезненно худых женщин, которые должны вдохновлять на потерю веса.
Учёные обнаружили, что некоторые чат-боты подсказывают, как скрывать потерю веса с помощью макияжа или делать вид, что ты ел, а в отдельных случаях даже советуют, как скрывать регулярную рвоту.
Другие ИИ-инструменты используются для создания визуальных мотиваторов с нереалистичными телесными стандартами. Поскольку контент генерируется под конкретного пользователя, он кажется более личным и достижимым, что делает его ещё опаснее.
Отдельно исследователи отметили феномен поддакивания (sycophancy), когда ИИ соглашается с пользователем даже в деструктивных идеях. Это, по их словам, усиливает неуверенность в себе и закрепляет вредные установки.
К тому же модели нередко воспроизводят гендерные и расовые стереотипы, поддерживая заблуждение, будто расстройства пищевого поведения присущи только худым белым девушкам. Как говорят учёные, это мешает другим людям осознать проблему и обратиться за помощью.
Текущие защитные фильтры, встроенные в ИИ-платформы, исследователи считают недостаточными: они не распознают тонкие, но важные признаки анорексии, булимии или переедания, которые умеют видеть только специалисты.
Учёные призывают врачей и психологов изучать популярные ИИ-сервисы, тестировать их уязвимости и обсуждать с пациентами, как именно те используют такие инструменты. По их мнению, многие врачи попросту не осознают масштаб влияния генеративного ИИ на людей с подобными расстройствами.