​Нейронные сети и сжатие изображений. Много технического текста

Поскольку нейронные сети могут одновременно принимать огромное количество входных данных и быстро их обрабатывать, они полезны при сжатии изображений

Оригинальное изображение
1919

Простите, я дилетант в этом ai, но не могли бы вы дать линк или хотя бы название этого исследования от mit? возможно я пропустил нужное в попытках найти оригинальное исследование.

Еще вопрос, пожалуйста. То что вы описали - один из методов использования DL системы для компрессии, есть ведь и другие? Вообще то что я прочитал в вашей статье - есть вариация алгоритма сжатия JPEG которая использует так же квантизацию, преобразования функции Фурье в своей основе, но вместо брутфорса вычисления весов при восстановлении изображения - использует ML для восстановления значения из функции шума? Или я неправильно понял. Если правильно - в чем практический смысл данной реализации? Эффективность компрессии? В реализации HEVC - снижение размера финального файла при сохранении качества получается путем значительного увеличения объема вычислений как при кодировании так и при декодировании, насколько я понимаю.

ML решения для компрессии используются достаточно давно и реализованы в JPEG2000, HEVC стандартах, я не ошибаюсь? TensorFlow и OpenCV библиотеки так же используют данный алгоритм сжатия но с дополнительными этапами для повышения качества изображения (обработка краев, например)?

Если я ошибся во всем - пожалуйста не сочтите за труд уточнить где именно была допущена ошибка.

5
Ответить