LINUX.ORG.RU

История изменений

Исправление knovich, (текущая версия) :

Она должна смотреть на две картинки и говорить «отличающиеся» или «одинаковые» точно так же, как сейчас говорит человек.

Так ведь одному человеку две картинки кажутся одинаковыми, а другой (специалист) видит отличия. Меня вот это беспокоит. Две картинки будут гарантированно одинаковыми с точки зрения человека, если различия в принципе не видно глазом с какого-то расстояния. Сюда же можно отнести то, что мы не отличим два узора из повторяющихся элементов, если они на половину длины элемента сдвинуты. Но с такими случаями современные кодеки вроде и так справляются. Или я не прав?

Нейросети, например, гораздо лучше справляются с тем же апскейлом картинок из низкого разрешения в высокое.

Так ведь при этом не появляется дополнительной информации, просто контуры становятся чётче. Если на маленьком разрешении было тёмное пятно, то никто, наверное, не сможет повысить разрешение так, чтобы стало понятно — это ёжик или шляпа. EDIT: имеется в виду — без контекста, спрятанного за пределами изображения.

Даунскейлим оригинальную лосслесс-картинку. Результат апскейлим нейросеткой. Затем вычитаем из оригинала апскеил. Получаем разницу. Разницу кодируем и жмём. В итоге у нас есть картинка маленького разрешения и малого размера + пожатая разница малого размера — из этой инфы в совокупности можно восстановить оригинал. В итоге мы экономим место на хранение картинки. Да, за счёт значительного увеличения необходимых вычислительных мощностей.

Так ведь разница будет такого же разрешения, как оригинал, почему, будучи сжатой, она займёт меньше места? Или я не понял идею?

Исходная версия knovich, :

Она должна смотреть на две картинки и говорить «отличающиеся» или «одинаковые» точно так же, как сейчас говорит человек.

Так ведь одному человеку две картинки кажутся одинаковыми, а другой (специалист) видит отличия. Меня вот это беспокоит. Две картинки будут гарантированно одинаковыми с точки зрения человека, если различия в принципе не видно глазом с какого-то расстояния. Сюда же можно отнести то, что мы не отличим два узора из повторяющихся элементов, если они на половину длины элемента сдвинуты. Но с такими случаями современные кодеки вроде и так справляются. Или я не прав?

Нейросети, например, гораздо лучше справляются с тем же апскейлом картинок из низкого разрешения в высокое.

Так ведь при этом не появляется дополнительной информации, просто контуры становятся чётче. Если на маленьком разрешении было тёмное пятно, то никто, наверное, не сможет повысить разрешение так, чтобы стало понятно — это ёжик или шляпа.

Даунскейлим оригинальную лосслесс-картинку. Результат апскейлим нейросеткой. Затем вычитаем из оригинала апскеил. Получаем разницу. Разницу кодируем и жмём. В итоге у нас есть картинка маленького разрешения и малого размера + пожатая разница малого размера — из этой инфы в совокупности можно восстановить оригинал. В итоге мы экономим место на хранение картинки. Да, за счёт значительного увеличения необходимых вычислительных мощностей.

Так ведь разница будет такого же разрешения, как оригинал, почему, будучи сжатой, она займёт меньше места? Или я не понял идею?