Простите, я дилетант в этом ai, но не могли бы вы дать линк или хотя бы название этого исследования от mit? возможно я пропустил нужное в попытках найти оригинальное исследование.
Еще вопрос, пожалуйста. То что вы описали - один из методов использования DL системы для компрессии, есть ведь и другие? Вообще то что я прочитал в вашей статье - есть вариация алгоритма сжатия JPEG которая использует так же квантизацию, преобразования функции Фурье в своей основе, но вместо брутфорса вычисления весов при восстановлении изображения - использует ML для восстановления значения из функции шума? Или я неправильно понял. Если правильно - в чем практический смысл данной реализации? Эффективность компрессии? В реализации HEVC - снижение размера финального файла при сохранении качества получается путем значительного увеличения объема вычислений как при кодировании так и при декодировании, насколько я понимаю.
ML решения для компрессии используются достаточно давно и реализованы в JPEG2000, HEVC стандартах, я не ошибаюсь? TensorFlow и OpenCV библиотеки так же используют данный алгоритм сжатия но с дополнительными этапами для повышения качества изображения (обработка краев, например)?
Если я ошибся во всем - пожалуйста не сочтите за труд уточнить где именно была допущена ошибка.
Простите, я дилетант в этом ai, но не могли бы вы дать линк или хотя бы название этого исследования от mit? возможно я пропустил нужное в попытках найти оригинальное исследование.
Еще вопрос, пожалуйста. То что вы описали - один из методов использования DL системы для компрессии, есть ведь и другие? Вообще то что я прочитал в вашей статье - есть вариация алгоритма сжатия JPEG которая использует так же квантизацию, преобразования функции Фурье в своей основе, но вместо брутфорса вычисления весов при восстановлении изображения - использует ML для восстановления значения из функции шума? Или я неправильно понял. Если правильно - в чем практический смысл данной реализации? Эффективность компрессии? В реализации HEVC - снижение размера финального файла при сохранении качества получается путем значительного увеличения объема вычислений как при кодировании так и при декодировании, насколько я понимаю.
ML решения для компрессии используются достаточно давно и реализованы в JPEG2000, HEVC стандартах, я не ошибаюсь? TensorFlow и OpenCV библиотеки так же используют данный алгоритм сжатия но с дополнительными этапами для повышения качества изображения (обработка краев, например)?
Если я ошибся во всем - пожалуйста не сочтите за труд уточнить где именно была допущена ошибка.