В процессе сбора гипотез были задействованы все источники, которые нам казались логичными. Основным источником были результаты обработки CusdDev-ов учеников, которые рассказывали о своем удачном или неудачном опыте в школе. Второй источник данных — все критерии качественного урока, которые предъявляются Кембриджским университетом. Третий — это все обезличенные данные ученика, которые собираются в системе Vimbox в процессе урока. Четвертый — результаты мозговых штурмов команд, которые напрямую ежедневно работают с преподавателями и уроками.
Какие технологии используете для распознавания? Качество распознавания не накладывает свой отпечаток на выводы о результатах?
Мы не разрабатывали свою систему. Пока))
Поэтому активно работали с партнерами, которые и предоставили само техническое решение
Что касается точности, то, конечно, точность распознавания не 100%, поэтому накладывает отпечаток на итоговый результат. Не смотря на это, мы смогли добиться точность определения по всем значимым критериям 87% и выше (по разным критериям - разный)
Кроме этого будет реализована система апелляций от преподавателей, на основании которых мы будем иметь возможность и результаты откорректировать, и постоянно работать над повышениям качества самой модели.
Итогом этой работы стала модель оценки качества работы каждого преподавателя, которая состоит из 20 разноплановых критериев.
удалось ли за счет этой модели увеличить LT и насколько процентов?
Новый процесс по этой модели запустили в январе, поэтому пока утвердительно не отвечу. Кроме того, LT сможем повысить не за счет того, что мы оцениваем, а только за счет того, что мы начнем работать с результатами такой оценки. Т.о. результат будет еще более отодвинутый во времени
В связи с этим всем, предполагаем что сможем увидеть результат в LT уже во втором квартале
Комментарий недоступен
Мы подумаем об этом)
А сколько получилось словарей/словарных параметров урока ?
И что еще вошло в оценку урока ?