Что такое supervised fine-tuning?

Supervised fine-tuning (SFT) — это методика, применяемая для адаптации предварительно обученных Large Language Model (LLM) под конкретную задачу при помощи размеченных данных.

Что такое supervised fine-tuning?

Руководство по типам аннотирования изображений

Руководство по типам аннотирования изображений

Аннотирование текста для машинного обучения

Аннотирование текста для машинного обучения
33

API и ФССП: как это работает?

В рамках профессиональной деятельности у меня часто возникает задача получения данных об исполнительном производстве (ИП) в отношении физических лиц с сайта ФССП.

22

«Хакни пайплайн»: подведены итоги первого крауд-хакатона

В рамках однодневного интенсива 16 команд искали самое эффективное решение для задачи разметки большого массива данных. В распоряжении участников была функциональность Яндекс.Толоки (построить процесс и получить датасет предстояло именно в Толоке) и реальные данные о товарных позициях маркетплейса OZON — 500 ссылок на карточки товаров.

1111

Инструкция: создать и загрузить разметку изображений в новый инструмент Apple для обучения нейросетей Create ML

Перевод материала разработчика IBM Watson Николаса Бурдакоса.

Инструкция: создать и загрузить разметку изображений в новый инструмент Apple для обучения нейросетей Create ML
1111

Supervised Fine-Tuning: как настроить LLM под конкретную задачу?

Supervised Fine-Tuning: как настроить LLM под конкретную задачу?

Пожалуй, для адаптации больших языковых моделей (large language model, LLM) под чётко очерченные задачи обработки естественного языка (natural language processing, NLP) нет технологии лучше, чем SFT (supervised fine-tuning). Для дообучения модели её необходимо предварительно обучить, а это означает, что она уже многому научилась из широкого спектра…

Как с помощью supervised fine-tuning кастомизировать LLM

Как с помощью supervised fine-tuning кастомизировать LLM

В быстро развивающейся сфере Natural Language Processing (NLP) fine-tuning стал мощным и эффективным инструментом адаптации предварительно обученных больших языковых моделей (Large Language Model, LLM) под конкретные задачи. Предварительно обученные LLM (например, семейство GPT) продемонстрировали существенный прогресс в понимании и генерации языка…