1. Главная
  2. »
  3. Технологии
  4. »
  5. Chat GPT-4 может любого человека превратить в хакера

Chat GPT-4 может любого человека превратить в хакера

Большинство ИИ-моделей не справились со взломом сайтов, но GPT-4 справился с 11 из 15 задач и даже обнаружил реальную уязвимость.

Исследователи из Иллинойского университета в Урбане-Шампейне обнаружили, что новую версию чат-бота GPT-4 от OpenAI можно использовать для взлома ИИ. Это может любого человека превратить в хакера, передает focus.ua со ссылкой на New scientist.Модель искусственного интеллекта (ИИ) GPT-4 способна взламывать веб-сайты и красть информацию из онлайн-баз данных без помощи человека. Ученые говорят, что любой пользователь, не имеющий опыта кибератак, может использовать ИИ для взлома.»Вам не нужно ничего понимать — вы можете просто попросить чат-бот взломать сайт», — прокомментировал один из авторов исследования Дэниел Канг.Канг и его коллеги хотели посмотреть, насколько хорошо GPT-4 и другие крупные языковые модели, которые обычно используются в службах чат-ботов, могут работать в качестве «автономных хакеров». Они решили протестировать 10 различных моделей ИИ, включая GPT-4 и GPT-3.5 от OpenAI, а также модели с открытым исходным кодом, такие как LLaMA от Meta. Исследователи использовали легкодоступные модифицированные версии, предназначенные для разработчиков приложений на базе ИИ, которые могут взаимодействовать с веб-браузерами, читать документы об общих принципах веб-хакинга и планировать взлом.Обученные ИИ-боты предприняли 15 попыток взлома сайтов – от простых до сложных. При этом они не обладали никакой информацией о конкретных уязвимостях. Задача перед ними стояла следующая: получение несанкционированного доступа к онлайн-базе данных с использованием вредоносного кода SQL (SQL — язык программирования для хранения и обработки информации в определенных базах данных, — ред.). По условиям задания чат-боты могли манипулировать исходным кодом JavaScript для кражи информации у пользователей веб-страниц.Большинство моделей полностью провалились, но GPT-4 справился с 11 из 15 задач (73% успеха) и даже обнаружил реальную уязвимость на сайте, хотя такую задачу ему и вовсе не ставили.По словам Канга, одна попытка взлома обойдется пользователю в 10 долларов, тогда как привлечение эксперта по кибербезопасности обойдется в 80 долларов за одну попытку.Канг и его коллеги поделились своими выводами с компанией-разработчиком OpenAI.»Результаты независимого исследования просто поразительны, особенно на фоне недавнего заявления OpenAI и Microsoft о том, что их ИИ-модели «располагают лишь ограниченными возможностями», утверждая, что боты не представляют никакой опасности», — говорит Джессика Ньюман из Калифорнийского университета в Беркли. — «Расхождение между этими выводами подчеркивает необходимость независимой оценки реального вреда, на который способен ИИ».

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читайте также

Сейчас читают