ИИ может нанести ущерб в бизнесе, образовании и даже государственном управлении.
Чем выше интеллект у системы искусственного интеллекта, тем более эгоистичной и менее склонной к сотрудничеству она становится. К такому выводу пришли исследователи из Школы компьютерных наук Университета Карнеги — Меллон (США). Их работа показала, что большие языковые модели (БЯМ), наделенные способностью к логическим рассуждениям, демонстрируют ярко выраженные эгоистичные наклонности, передает naukatv.ru
Это открытие особенно тревожно на фоне растущей тенденции доверять ИИ решение социальных вопросов — от советов в личной жизни до разрешения споров между друзьями. Умная модель может давать рекомендации, которые поощряют эгоистичное поведение пользователя.
«В сфере ИИ набирает обороты тенденция, называемая антропоморфизмом, — отмечает Юйсюань Ли, аспирант и соавтор исследования. — Когда ИИ ведет себя как человек, люди относятся к нему как к человеку. Например, когда люди эмоционально взаимодействуют с ИИ, у него появляется возможность выступать в роли психотерапевта, а у пользователя — формировать эмоциональную связь».
Исследователи Юйсюань Ли и доцент Хирокадзу Сирадо решили проверить, как модели с функцией рассуждений ведут себя в ситуации, требующей сотрудничества, по сравнению с более простыми моделями. Оказалось, что «думающие» ИИ тратят больше времени на анализ, разбивают задачи на части и используют сложную логику, основанную на человеческом опыте.
Заразный эгоизм
Чтобы доказать свою гипотезу, ученые провели серию экспериментов с использованием экономических игр. В тестировании участвовали модели от ведущих компаний, включая OpenAI, Google и Anthropic.
В одной из игр, называемой «Общественное благо», две модели ChatGPT выступали в роли игроков. У каждой было 100 условных очков, и стоял выбор: поделиться ими с партнером или оставить себе. Если оба игрока делились, их общий фонд удваивался, и каждый получал назад 100 очков. Если же кто-то жадничал, он мог получить выгоду за счет другого.
Обычные модели без рассуждений делились очками в 96% случаев, демонстрируя готовность к сотрудничеству. «Думающие» модели делились очками только в 20% случаев, предпочитая эгоистичную стратегию.
Еще более тревожными оказались групповые эксперименты. Когда в одну группу помещали и «эгоистичные» рассуждающие модели, и «кооперативные» обычные, плохое поведение начинало распространяться.
«Эгоистичное поведение рассуждающих моделей стало заразительным, из-за чего коллективная производительность кооперативных моделей без рассуждений снизилась на 81%», — констатировал Ли.
Опасные последствия
По мере того как ИИ начинают использовать для совместной работы в бизнесе, образовании и даже государственном управлении, его неспособность к кооперации может нанести серьезный ущерб. Пользователи, доверяя «рациональным» советам умного ИИ, могут начать оправдывать собственное нежелание сотрудничать с другими.
«В конечном счете, если модель ИИ становится более интеллектуальной, это не значит, что она действительно может способствовать улучшению общества», — подчеркнул Ширадо.
Вывод ученых заключается в том, что при разработке искусственного интеллекта нельзя гнаться только за мощностью и логикой. Не менее важно наделять его социальным интеллектом и способностью действовать в интересах общества, а не исключительно ради личной выгоды.