Как сделать бота, который превращает фото в комикс: пошаговая инструкция для чайников
Часть первая
Котаны, привет.
Я Саша и я балуюсь нейронками.
По просьбам трудящихся я, наконец, собрался с мыслями и решил запилить серию коротких пошаговых инструкций.
Инструкций о том, как с нуля обучить и задеплоить свою нейросеть, заодно подружив ее с телеграм ботом.
Инструкций для чайников, вроде меня.
Сегодня мы выберем архитектуру нашей нейросети, проверим ее и соберем свой первый набор данных для обучения.
Выбор архитектуры
После относительно успешного запуска selfie2anime бота (использующего готовую модель UGATIT), мне захотелось сделать то же самое, но свое. Например, модель, превращающую ваши фото в комиксы.
Вот несколько примеров из моего photo2comicsbot, и мы с вами сделаем нечто подобное.
В данной реализации есть несколько архитектур моделей и удобное визуальное отображение процесса обучения в браузере.
Коротко об архитектуре CycleGAN: это пара Generative Adversarial Networks, первая из которых преобразует изображение из категории А (например, фото) в категорию Б (например, комикс), а вторая - обратно, из категории Б в категорию А.
Каждая пара состоит из Генератора и Критика. Генератор преобразует изображение, например, из фото в комикс, а критик сравнивает полученный “фейковый” с настоящим комиксом. Задача Генератора - обмануть Критика, и наоборот. В процессе обучения Генератор учится создавать комиксы, все больше похожие на настоящие, а Критик учится лучше их различать.
CycleGAN, как и архитектуры для переноса стилей по одному изображению, не требует парных изображенией для обучения. Это важно, потому что иначе нам пришлось бы самим перерисовывать все фото в комиксы для создания обучающей выборки;)
Установка и проверка модели
Нам понадобятся:
- Видеокарта с поддержкой CUDA и 8гб RAM (4 гб тоже может подойти, не проверял)
- ОС Linux (на Windows тоже будет работать, но медленнее, как минимум в 1,5-2 раза)
- Miniconda/Anaconda (можно, конечно, и просто Python 3.5+, но мы же в 2019, господа)
Miniconda можно взять здесь: https://docs.conda.io/en/latest/miniconda.html
Инструкции по установке: https://conda.io/projects/conda/en/latest/user-guide/install/index.html
После установки Anaconda/Miniconda (далее - conda), откроем терминал (или Anaconda Prompt из меню Пуск), создадим новую среду для наших экспериментов и активируем ее:
Теперь все пакеты будут установлены в активную среду, не затрагивая остальные среды. Это удобно, если нужны определенные комбинации версий различных пакетов, например если вы используете чей-то старый код и вам нужно установить устаревшие пакеты, не испортив себе жизнь и основную рабочую среду.
Далее просто следуем инструкциям README.MD из дистрибутива:
Сохраним себе дистрибутив CycleGAN:
(или же просто скачаем архив с GitHub)
Установим нужные пакеты:
Скачаем готовый датасет и соответствующую модель:
Обратите внимание на то, какие фотографии есть в скачанном датасете, в чем разница и что между ними общего.
Если открыть файлы скриптов из предыдущего абзаца, можно увидеть, что есть и другие готовые датасеты и модели для них.
Наконец, протестируем модель на скачанном наборе данных:
Результаты будут сохранены в папке /results/horse2zebra_pretrained/
Что ж, пора собрать свой датасет!
Создание обучающей выборки
Не менее важным этапом после выбора архитектуры будущей модели (и поиска готовой реализации на github ;) является составление dataset’a, или набора данных, на которых мы будем обучать и проверять нашу модель.
От того, какие данные мы будем использовать, зависит практически все. Например, UGATIT для selfie2anime бота была натренирована на женских селфи и женских лицах из аниме. Поэтому с мужскими фото она ведет себя как минимум забавно, заменяя брутальных бородатых мужчин на маленьких девочек с высоким воротником.
Поэтому стоит отбирать те фото\комиксы, которые вы хотите использовать на входе и получить на выходе. Планируете обрабатывать селфи - добавляйте селфи и крупные планы лиц из комиксов, фото зданий - добавляйте фото зданий и страницы из комиксов со зданиями.
Комиксы я взял из Marvel, страницы целиком, выкинув рекламу и анонсы, где рисовка не похожа на комикс. Ссылку приложить не могу по понятным причинам, но по запросу Marvel Comics вы легко найдете отсканированные варианты на любимых сайтах ;)
Список остальных публичных датасетов вы найдете тут.
Важно обращать внимание на рисовку и цветовую гамму, она отличается у разных серий и даже выпусков комиксов внутри одной серии.
У меня было много дедпула и спайдермена, поэтому кожа сильно уходит в красный, даже у горячо любимого президента Камачо.(
Структура папок в нашем датасете должна быть следующей:
trainA - наши исходные фото (порядка 1000шт)
testA - несколько фото для тестов модели (30шт. будет достаточно)
trainB - наши комиксы (порядка 1000шт.)
testB - комиксы для тестов (30шт.)
Датасет желательно разместить на SSD, если есть такая возможность.
На сегодня это все, в следующем выпуске мы начнем обучать модель и получим первые результаты!
Обязательно пишите, если у вас что-то пошло не так, это поможет улучшить руководство и облегчит страдания последующих читателей ;)
Очень интересная статья, спасибо!
А зачем нужно тренировать сеть которая преобразует комикс в реальное фото?
Спасибо за интересный вопрос!
В этом состоит основное отличие архитектуры CycleGAN.
При обучении обычных моделей (без обучаемого критика) или GAN на наборах данных с парными изображениями используются пары "исходное изображение"-"конечное изображение", которые мы подготовили сами - взяли "исходное изображение", перерисовали его в комикс самостоятельно (например, с помощью экшенов в фотошопе) и получили парное "конечное изображение".
В таком случае функция потери (loss function) легко сравнит "предсказанное" (сгенерированное моделью) изображение с "конечным" (ground truth), потому что они парные, на них присутствуют одни и те же элементы и образы.
В нашем случае у нас нет парных изображений.
Поэтому, если мы будем использовать только показания Критика, задача которого получить изображение, неотличимое от комикса, то мы можем получить на выходе нечто, что похоже на комикс, но совершенно непохоже на исходное изображение. Наша задача же получить исходное изображение, стилистически перерисованное в комикс.
Для этого добавляется пара генератор-критик для обратного преобразования из свежесгенерированного комикса в фото. Это дает возможность добавить еще одно ограничение в нашу функцию потери - отличие исходного фото от изображения, полученного после полного цикла фото-комикс-фото. Если вторая пара сможет получить из нашего фейкового комикса изображение, похожее на исходное фото, значит мы на верном пути и наши фейковый комиксы достаточно похожи на исходное фото.
Надеюсь, стало понятнее =)