1. Главная
  2. »
  3. За рубежом
  4. »
  5. Опасный отпуск с ChatGPT: ИИ отправляет туристов в несуществующие места

Опасный отпуск с ChatGPT: ИИ отправляет туристов в несуществующие места

Планирование отпуска с помощью нейросети может закончиться на вершине горы без возможности спуститься.

Туристы, использующие искусственный интеллект (ИИ) для планирования путешествий, все чаще сталкиваются с недостоверной информацией, которая может приводить к опасным ситуациям, передает mentoday.ru

Как сообщает BBC со ссылкой на официальные отчеты специалистов, такие ИИ-модели, как ChatGPT, Microsoft Copilot и Google Gemini, могут «галлюцинировать», создавая вымышленные достопримечательности, предоставляя неверное расписание и рекомендуя изначально невыполнимые маршруты.

Один из показательных случаев произошел в Перу, где двое туристов отправились в поход к несуществующему «Священному каньону Умантай» в Андах. Их остановил местный гид Мигель Анхель Гонгора Меза, который услышал их планы.

«Такого рода дезинформация в Перу просто опасна. Высота, климатические изменения и доступность троп должны быть спланированы.

Когда вы используете программу, которая комбинирует картинки и названия для создания фантазии, вы можете оказаться на высоте 4000 метров без кислорода и связи», — сообщил он.

Подобные инциденты не единичны. Пара туристов, планировавшая поход на гору Мисен в Японии с помощью ChatGPT, застряла на вершине. ИИ предоставил неверное время закрытия канатной дороги, в результате чего они не смогли спуститься до наступления темноты.

В другом случае ИИ-приложение Layla на короткое время сообщало пользователям о существовании Эйфелевой башни в Пекине и предложило британскому путешественнику нереализуемый марафонский маршрут через северную Италию.

На самом деле проблема заключается в принципе работы больших языковых моделей (LLM). По словам профессора машинного обучения в Университете Карнеги-Меллона Райида Гани, эти системы не знают точные факты, а генерируют текст, анализируя огромные массивы данных и составляя статистически вероятные последовательности слов.

«Иногда это приводит к созданию так называемых «галлюцинаций» — информации, которая звучит правдоподобно, но не соответствует действительности», — пояснил специалист.

По его словам, ИИ предоставляет как фактические, так и вымышленные данные одинаково уверенно, что затрудняет их распознавание пользователем.

Согласно глобальному опросу 2024 года, 33% путешественников, использовавших ИИ для планирования, столкнулись с ложной информацией. По данным другого исследования, проведенного компанией Global Rescue, уже 24% туристов используют ИИ для организации поездок, а по некоторым оценкам, эта цифра достигает 30% среди международных путешественников.

Однако, помимо непреднамеренной дезинформации, существует угроза использования ИИ в мошеннических схемах. Так, заместитель директора по безопасности Global Rescue Хардинг Буш предупредил, что злоумышленники используют ботов и дипфейки для создания поддельных туристических сайтов и приложений с целью кражи данных кредитных карт.

Эксперты отмечают, так называемые «ИИ-галлюцинации» могут быть неотъемлемой особенностью больших языковых моделей. В связи с этим путешественникам рекомендуется тщательно проверять всю информацию, полученную от ИИ, особенно если она касается незнакомых мест.

Правда, как отмечает профессор Гани, такая проверка может сделать процесс планирования с помощью ИИ таким же трудоемким, как и традиционные методы.

Источник

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читайте также

Сейчас читают