Я тестировал DeepSeek (чат) и GPT 4о. По смыслам и стилю написания у GPT текст выходит лучше. Он хорошо воспринимает прописанную стилистику и более четко следует инструкциям. Собираю логику с участием нейронки на make. Думал перейти на DeepSeek, но после тестов отказался пока что от этой идеи. Но, в целом, китайская версия тоже интересная и подойдет для каких-то простых задач и для тех, кто не может получить доступ к GPT.
Я тестировал DeepSeek (чат) и GPT 4о. По смыслам и стилю написания у GPT текст выходит лучше. Он хорошо воспринимает прописанную стилистику и более четко следует инструкциям.
Собираю логику с участием нейронки на make. Думал перейти на DeepSeek, но после тестов отказался пока что от этой идеи.
Но, в целом, китайская версия тоже интересная и подойдет для каких-то простых задач и для тех, кто не может получить доступ к GPT.
С русским текстом лучше всего работали модели anthropic (sonnet/opus) и Google Gemini (лучше 2 версии).
Следование инструкциям круче всего у sonnet.
Но r1 отлично пишет код. Если использовать aider - то r1+sonnet новая sota.
Когда проверяли? R1 презентовали 20 января