Lory — полностью дифференцируемая Mixture-of-Experts (MoE)

На днях исследователи из Принстона представили Lory — первое в своём роде решение, которое позволяет масштабировать MoE-архитектуры для предварительного обучения авторегрессионных языковых моделей.

Lory — полностью дифференцируемая Mixture-of-Experts (MoE)

В Lory реализованы 2 ключевые технологии:

(1) — стратегия маршрутизации причинных сегментов, которая обеспечивает высокую эффективность операций объединения экспертов при сохранении авторегрессивной природы языковых моделей

(2) — метод группировки данных на основе сходства, который стимулирует специализацию "экспертов" путем группировки похожих документов в обучающих выборках

Результаты экспериментов с Lory показывают значительный прирост производительности по сравнению с обычными MoE-моделями.

📎 Arxiv

Если интересуетесь темой ИИ и нейросетей, здесь я публикую разбор свежих моделей, статей и гайдов, кладешь полезной информации.

Начать дискуссию