Трудность заключалась в том, что все команды работали по разным процессам. Вот последствия:
1. Разная отчетность. Одна команда могла просто отписаться в чате, что все «сделано», вторая — делала отчет в google sheets со списком всех проверок, третья — вела отчетность в confluence. В общем, у всех все по-разному;
Технически все понятно, но 58 часов Python-программиста на фреймворк? Это серьезно. Неужели нельзя было сократить это время?
Больше всего времени было потрачено на изменение взаимодействия тестеров с автотестами, процесс был итерационным, что-то отбрасывалось, что-то обновлялось, что-то дорабатывалось во время мониторинга тестовой эксплуатации
Комментарий удалён автором поста
А чем пользуетесь?
Автотесты — это точно будущее. Но 12 раз сократить время на ручные проверки — звучит как сказка. В реальности всегда что-то тормозит
Согласимся. Проблемы с инфраструктурой (даже если бы они были) не имели бы сильного значения. При ручном тестировании можно было бы столкнуться с доступностью сервера, если теоретически. Но и такого не было.