В теория информации, информационное измерение является информационной мерой для случайных векторов в Евклидово пространство, основанный на нормированном энтропия тонко квантованных версий случайных векторов. Эта концепция была впервые представлена Альфред Реньи в 1959 г.[1]
В 2010 году Ву и Верду дали рабочую характеристику информационного измерения Реньи как фундаментального ограничения сжатия данных практически без потерь для аналоговых источников при различных ограничениях регулярности кодера / декодера.
Позволять - произвольная случайная величина с действительным знаком. Учитывая положительное целое число , мы создаем новую дискретную случайную величину
где - это оператор пола, который преобразует действительное число в наибольшее целое меньшее его. потом
и
называются нижним и верхним информационными измерениями соответственно. Когда , мы называем это ценностным информационным измерением ,
Некоторые важные свойства информационного измерения :
Если легкое состояние выполнено, у нас есть .
Для -мерный случайный вектор , первое свойство можно обобщить на .
Достаточно вычислить верхнюю и нижнюю информационные размерности при ограничении экспоненциальной подпоследовательностью .
и остаются неизменными, если при квантовании используются функции округления или ограничения.
-Мерная энтропия
Если информационное измерение существует, можно определить -мерная энтропия этого распределения на
при условии, что лимит существует. Если , нульмерная энтропия равна стандартной Энтропия Шеннона. Для целочисленного измерения , то -мерная энтропия - это -кратный интеграл, определяющий соответствующие дифференциальная энтропия.
Дискретно-непрерывное распределение смеси
В соответствии с Теорема разложения Лебега,[2] распределение вероятностей может быть однозначно представлено смесью
куда и ; является чисто атомарной вероятностной мерой (дискретной частью), - абсолютно непрерывная вероятностная мера, а - вероятностная мера, сингулярная относительно меры Лебега, но не содержащая атомов (сингулярная часть). - случайная величина такая, что . Предположим, что распределение можно представить как
куда дискретная мера и - абсолютно непрерывная вероятностная мера с . потом
Более того, учитывая и дифференциальная энтропия , то -Мерная энтропия просто дается
куда энтропия Шеннона дискретной случайной величины с и и дано
Пропускаем сигнал через полуволну выпрямитель который преобразует все отрицательные значения в 0 и сохраняет все остальные значения. Однополупериодный выпрямитель можно охарактеризовать функцией
Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение. Он характеризуется атомной массой 0,5 и имеет гауссову PDF для всех .
С этим распределением смеси мы применяем приведенную выше формулу и получаем информационное измерение распределения и вычислить -мерная энтропия.
Нормализованная правая часть гауссова распределения с нулевым средним имеет энтропию , следовательно
Связь с дифференциальной энтропией
Показано [3] это информационное измерение и дифференциальная энтропия тесно связаны.
Позволять - положительная случайная величина с плотностью .
Предположим, мы разделим диапазон в ячейки длины . По теореме о среднем значении существует значение в каждом бункере так, чтобы
Рассмотрим дискретизированную случайную величину если .
Вероятность каждой точки поддержки является
Энтропия этой переменной равна
Если мы установим и затем мы делаем то же самое квантование, что и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не меняет ее энтропию, мы имеем
Это дает
и когда достаточно большой,
которая является дифференциальной энтропией непрерывной случайной величины. В частности, если интегрируем по Риману, то
Сравнивая это с -мерная энтропия показывает, что дифференциальная энтропия - это в точности одномерная энтропия
Фактически, это можно обобщить на более высокие измерения. Реньи показывает, что если случайный вектор в -мерное евклидово пространство с абсолютно непрерывным распределением с функцией плотности вероятности и конечная энтропия целой части (), у нас есть
и
если интеграл существует.
Сжатие данных без потерь
Информационное измерение распределения дает теоретическую верхнюю границу степени сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число с меньшим количеством действительного числа, которое имеет бесконечную точность.
Основная цель сжатия данных без потерь - найти эффективные представления для исходных реализаций. к . А код для это пара отображений:
кодировщик: который преобразует информацию из источника в символы для передачи или хранения;
декодер: - это обратный процесс, преобразовывающий кодовые символы обратно в форму, понятную получателю.
Вероятность ошибки блока равна .
Определять быть пределом такая, что существует последовательность коды такие, что для всех достаточно больших .
Так в основном дает соотношение между длиной кода и длиной источника, это показывает, насколько хороша конкретная пара кодеров-декодеров. Основные ограничения в кодировании источников без потерь следующие.[4]
Рассмотрим функцию непрерывного энкодера с функцией непрерывного декодирования . Если мы не налагаем регулярности на и , благодаря богатой структуре , у нас есть минимум -достижимая ставка для всех . Это означает, что можно построить пару кодер-декодер с бесконечной степенью сжатия.
Чтобы сделать несколько нетривиальных и содержательных выводов, позвольте минимум достижимая скорость для линейного кодировщика и декодера Бореля. Если случайная величина имеет распределение, которое представляет собой смесь дискретной и непрерывной частей. потом для всех Предположим, мы ограничиваем декодер непрерывной липшицевой функцией и выполняется, то минимум достижимая ставка для всех .
Реньи, А. (март 1959 г.). «О размерности и энтропии вероятностных распределений». Acta Mathematica Academiae Scientiarum Hungaricae. 10 (1–2): 193–215. Дои:10.1007 / BF02063299. ISSN0001-5954.CS1 maint: ref = harv (связь)