1. Главная
  2. »
  3. Технологии
  4. »
  5. OpenAI, Google и Anthropic объединились для борьбы с китайскими конкурентами

OpenAI, Google и Anthropic объединились для борьбы с китайскими конкурентами

OpenAI, Google и Anthropic начали обмениваться данными о попытках несанкционированного копирования своих ИИ-моделей с помощью так называемой дистилляции.

Компании действуют через Frontier Model Forum — некоммерческую отраслевую организацию, которую они основали совместно с Microsoft в 2023 году, сообщает bloomberg.com

Дистилляция — это метод, при котором одна ИИ-модель используется для обучения другой путем анализа ответов первой. Американские компании обвиняют пользователей — преимущественно из Китая — в применении этой техники без разрешения для создания конкурирующих продуктов. По оценкам властей США, незаконная дистилляция обходится американским ИИ-разработчикам в миллиарды долларов недополученной прибыли ежегодно, сообщил Bloomberg анонимный источник.

OpenAI подтвердила свое участие в обмене информацией и сослалась на недавно поданную записку в Конгресс, в которой обвинила китайскую компанию DeepSeek в попытке «бесплатно воспользоваться возможностями, разработанными OpenAI и другими американскими лабораториями». Тема приобрела остроту после того, как в январе 2025 года DeepSeek выпустила модель R1, вызвавшую волнения на рынке: OpenAI и Microsoft тогда инициировали расследование, не исключив, что при создании R1 были незаконно использованы данные из американских систем.

Отмечается, что угроза дистилляции остается для американских ИИ-компаний одним из главных источников беспокойства: большинство китайских моделей распространяется с открытыми весами и без ежемесячной подписки, что создает экономическое давление на американских игроков, вложивших сотни миллиардов долларов в инфраструктуру. Anthropic в феврале уже заблокировала доступ к своим сервисам для компаний под китайским контролем и назвала угрозу риском для национальной безопасности — поскольку при дистилляции, как правило, не копируются защитные механизмы, призванные не допустить использования ИИ в опасных целях, например, для создания патогенов.

Источник

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читайте также

Сейчас читают