Ученые из Китая представили новый подход к дообучению больших языковых моделей под новые задачи.
Метод GENOME (GENetic Optimization for Model Evolution) использует механизмы генетической эволюции — скрещивание, мутацию, отбор и наследование признаков — для быстрой адаптации моделей к новым задачам, передает incrussia.ru
Традиционные методы настройки языковых моделей требуют больших размеченных наборов данных и значительных вычислительных ресурсов. Существующим подходам к комбинированию моделей недостает гибкости и способности адаптироваться к новым задачам в режиме реального времени. GENOME преодолевает эти ограничения и позволяет моделям учиться новым навыкам даже на небольших наборах данных.
В экспериментах исследователи использовали модели семейства gemma-2-2b-it. Нейросети дообучили при помощи GENOME в течение 10 поколений, на каждом из которых параметры моделей постепенно оптимизировались.
По оценкам ученых, новый подход превосходит современные методы адаптации моделей по нескольким критериям. Система в среднем на 24,06% превосходит лучшую одиночную модель и на 10,75% опережает ансамбль алгоритмов. Особенно хорошо нейросети с GENOME показали себя в задачах, требующих глубоких рассуждений.
В отличие от других методов, которые теряют эффективность при работе с несколькими задачами, новая техника показывает стабильную производительность в большинстве областей знаний.
Ранее подразделение Yandex B2B Tech открыло доступ к дообучению методом LoRA для корпоративных клиентов. При помощи этой техники можно адаптировать языковые модели компании под специфические задачи бизнеса.