В статье, посвященной анонсу нового набора, разработчики отдельно подчеркнули ту пользу, которую могут принести небольшие языковые модели при правильном обучении. В частности, Phi-3-mini может открыть путь для создания более высокопроизводительных компактных моделей, которые смогут работать на мобильных устройствах. Конечно, на данном этапе развития их производительность не дотягивает до таких крупных конкурентов, как GPT-4, но уже в обозримом будущем разрыв между крупными и малыми моделями может значительно сократиться.
Даже самая миниатюрная версия Phi-3-mini обучена на миллиардах параметров и может конкурировать с более крупными моделями, сохраняя при этом эффективность работы даже на смартфонах