WikiDer > Теория скорости-искажения
Теория информации |
---|
эта статья нужны дополнительные цитаты для проверка. (Март 2012 г.) (Узнайте, как и когда удалить этот шаблон сообщения) |
Теория скорости-искажения это основная ветвь теория информации что дает теоретические основы для сжатие данных с потерями; он решает проблему определения минимального количества бит на символ, измеряемого скоростью р, который должен передаваться по каналу, чтобы источник (входной сигнал) можно было приблизительно восстановить в приемнике (выходной сигнал) без превышения ожидаемого искажения D.
Вступление
Теория скоростей и искажений дает аналитическое выражение того, насколько компрессия может быть достигнута с использованием методов сжатия с потерями. Многие из существующих методов сжатия звука, речи, изображений и видео имеют процедуры преобразования, квантования и распределения битовой скорости, в которых используется общая форма функций скорость-искажение.
Теория скорости – искажения была создана Клод Шеннон в своей фундаментальной работе по теории информации.
В теории скорости-искажения ставка обычно понимается как количество биты на выборку данных, которую нужно сохранить или передать. Понятие искажение является предметом постоянного обсуждения.[1] В самом простом случае (который фактически используется в большинстве случаев) искажение определяется как ожидаемое значение квадрата разницы между входным и выходным сигналами (т.е. среднеквадратичная ошибка). Однако, поскольку мы знаем, что большинство сжатие с потерями методы работают с данными, которые будут восприниматься людьми-потребителями (прислушиваясь к Музыка, просмотр изображений и видео) мера искажения предпочтительно должна быть смоделирована восприятие и, возможно эстетика: очень похоже на использование вероятность в сжатие без потерь, меры искажения в конечном итоге можно отождествить с функции потерь как используется в байесовском оценка и теория принятия решений. При сжатии звука модели восприятия (и, следовательно, меры искажения восприятия) относительно хорошо разработаны и обычно используются в таких методах сжатия, как MP3 или Vorbis, но их часто нелегко включить в теорию скорости искажения. При сжатии изображений и видео модели человеческого восприятия менее развиты, и их включение в основном ограничивается JPEG и MPEG взвешивание (квантование, нормализация) матрица.
Функции искажения
Функции искажения измеряют стоимость представления символа приближенным символом . Типичными функциями искажения являются искажение Хэмминга и искажение квадратичной ошибки.
Искажение Хэмминга
Квадратная ошибка искажения
Скоростные-искажающие функции
Функции, связывающие скорость и искажение, находятся как решение следующей задачи минимизации:
Здесь , иногда называемый тестовым каналом, является условный функция плотности вероятности (PDF) выхода канала связи (сжатый сигнал) для данного входа (исходный сигнал) , и это взаимная информация между и определяется как
где и энтропия выходного сигнала Y и условная энтропия выходного сигнала при входном сигнале соответственно:
Задачу также можно сформулировать как функцию скорости искажения, где мы находим инфимум сверх достижимых искажений для данного ограничения скорости. Соответствующее выражение:
Эти две формулировки приводят к функциям, обратным друг другу.
Взаимную информацию можно понимать как меру `` априорной '' неопределенности получателя в отношении сигнала отправителя (ЧАС(Y)), уменьшенная неопределенностью, которая остается после получения информации о сигнале отправителя (). Конечно, уменьшение неопределенности связано с переданным объемом информации, который .
Например, если есть нет общение вообще, тогда и . В качестве альтернативы, если канал связи идеален и принятый сигнал идентичен сигналу у отправителя, то и .
В определении функции скорость – искажение и искажение между и для данного и предписанное максимальное искажение соответственно. Когда мы используем среднеквадратичная ошибка в качестве меры искажения имеем (для амплитуда-непрерывные сигналы):
Как показывают приведенные выше уравнения, вычисление функции "скорость – искажение" требует стохастического описания входных данных. с точки зрения PDF , а затем стремится найти условную PDF которые минимизируют скорость для данного искажения . Эти определения могут быть сформулированы с точки зрения теории меры для учета дискретных и смешанных случайных величин.
An аналитический решение этого проблема минимизации часто бывает трудно получить, за исключением некоторых случаев, для которых мы предлагаем два наиболее известных примера. Известно, что функция скорость – искажение любого источника подчиняется нескольким фундаментальным свойствам, наиболее важными из которых являются непрерывный, монотонно убывающий выпуклый (U) функция Таким образом, форма функции в примерах является типичной (даже измеренные функции скорость – искажение в реальной жизни имеют очень похожие формы).
Хотя аналитических решений этой проблемы мало, для этих функций существуют верхняя и нижняя границы, включая знаменитый Нижняя граница Шеннона (SLB), который в случае квадрата ошибки и источников без памяти утверждает, что для произвольных источников с конечной дифференциальной энтропией
где час(D) - дифференциальная энтропия гауссовской случайной величины с дисперсией D. Эта нижняя граница может быть расширена до источников с памятью и другими мерами искажения. Одной из важных особенностей SLB является то, что он асимптотически плотен в режиме низких искажений для широкого класса источников, а в некоторых случаях фактически совпадает с функцией скорость – искажение. Нижние границы Шеннона обычно могут быть найдены, если искажение между любыми двумя числами может быть выражено как функция разницы между значениями этих двух чисел.
В Алгоритм Блахута – Аримото, совместно изобретенный Ричард Блахут, представляет собой элегантный итерационный метод для численного получения функций скорости и искажения произвольных конечных источников алфавита ввода / вывода, и была проделана большая работа по его распространению на более общие примеры проблем.
При работе со стационарными источниками с памятью необходимо изменить определение функции искажения скорости, и ее следует понимать в смысле предела, принятого для последовательностей возрастающей длины.
где
и
где верхние индексы обозначают полную последовательность до этого момента, а нижний индекс 0 указывает начальное состояние.
Гауссовский источник без памяти (независимый) с квадратичным искажением ошибки
Если предположить, что это Гауссовский случайная величина с отклонение , и если предположить, что последовательные отсчеты сигнала находятся стохастически независимый (или, что то же самое, источник без памяти, или сигнал некоррелированный), находим следующее аналитическое выражение для функции скорость – искажение:
- [2]:310
На следующем рисунке показано, как выглядит эта функция:
Теория скоростного искажения говорит нам, что «не существует системы сжатия, работающей вне серой зоны». Чем ближе практическая система сжатия к красной (нижней) границе, тем лучше она работает. Как правило, этого ограничения можно достичь только путем увеличения параметра длины блока кодирования. Тем не менее, даже при единичных длинах блоков часто можно найти хорошие (скалярные) квантователи которые работают на расстояниях от функции скорость – искажение, которые имеют практическое значение.[2]
Эта функция скорость – искажение верна только для гауссовых источников без памяти. Известно, что гауссовский источник является наиболее «сложным» для кодирования: для данной среднеквадратичной ошибки требуется наибольшее количество битов. Производительность практической системы сжатия, работающей, скажем, с изображениями, вполне может быть ниже показана нижняя граница.
Источник Бернулли без памяти (независимый) с искажением Хэмминга
Функция скорости-искажения случайная величина Бернулли с искажением Хэмминга определяется выражением:
где обозначает бинарная функция энтропии.
График функции скорость-искажение для :
Связь теории скорости и искажения с пропускной способностью канала [3]
Допустим, мы хотим передать пользователю информацию об источнике с искажением, не превышающим D. Теория коэффициента искажения говорит нам, что по крайней мере биты / символ информации из источника должны дойти до пользователя. Мы также знаем из теоремы Шеннона о кодировании каналов, что если энтропия источника равна ЧАС бит / символ, а пропускная способность канала является C (куда ), тогда биты / символ будут потеряны при передаче этой информации по данному каналу. Чтобы у пользователя была надежда на реконструкцию с максимальным искажением D, мы должны наложить требование, чтобы информация, теряемая при передаче, не превышала максимально допустимую потерю бит / символ. Это означает, что пропускная способность канала должна быть не менее .
Смотрите также
- Декорреляция
- Оптимизация скорости и искажений
- Исходное кодирование
- Сферы-упаковка
- Отбеливание
- Алгоритм Блахута-Аримото
Рекомендации
- ^ Блау, Ю. и Михаэли, Т. «Переосмысление сжатия с потерями: компромисс между скоростью, искажением и восприятием». Материалы Международной конференции по машинному обучению, 2019.
- ^ а б Томас М. Кавер, Джой А. Томас (2006). Элементы теории информации. John Wiley & Sons, Нью-Йорк.
- ^ Тоби Бергер (1971). Теория искажения скорости: математическая основа сжатия данных. Прентис Холл.
внешняя ссылка
- PyRated: Код Python для основных вычислений в теории искажений скорости.
- Инструмент для обучения сжатию изображений и видео VcDemo