WikiDer > Информационное измерение - Википедия

Information dimension - Wikipedia


В теория информации, информационное измерение является информационной мерой для случайных векторов в Евклидово пространство, основанный на нормированном энтропия тонко квантованных версий случайных векторов. Эта концепция была впервые представлена Альфред Реньи в 1959 г.[1]

Проще говоря, это мера фрактальная размерность из распределение вероятностей. Он характеризует скорость роста Энтропия Шеннона задаваемые последовательно более тонкой дискретизацией пространства.

В 2010 году Ву и Верду дали рабочую характеристику информационного измерения Реньи как фундаментального ограничения сжатия данных практически без потерь для аналоговых источников при различных ограничениях регулярности кодера / декодера.

Определение и свойства

Энтропия дискретной случайной величины является

куда это вероятностная мера из когда , а обозначает набор .

Позволять - произвольная случайная величина с действительным знаком. Учитывая положительное целое число , мы создаем новую дискретную случайную величину

где - это оператор пола, который преобразует действительное число в наибольшее целое меньшее его. потом

и

называются нижним и верхним информационными измерениями соответственно. Когда , мы называем это ценностным информационным измерением ,

Некоторые важные свойства информационного измерения :

  • Если легкое состояние выполнено, у нас есть .
  • Для -мерный случайный вектор , первое свойство можно обобщить на .
  • Достаточно вычислить верхнюю и нижнюю информационные размерности при ограничении экспоненциальной подпоследовательностью .
  • и остаются неизменными, если при квантовании используются функции округления или ограничения.

-Мерная энтропия

Если информационное измерение существует, можно определить -мерная энтропия этого распределения на

при условии, что лимит существует. Если , нульмерная энтропия равна стандартной Энтропия Шеннона . Для целочисленного измерения , то -мерная энтропия - это -кратный интеграл, определяющий соответствующие дифференциальная энтропия.

Дискретно-непрерывное распределение смеси

В соответствии с Теорема разложения Лебега,[2] распределение вероятностей может быть однозначно представлено смесью

куда и ; является чисто атомарной вероятностной мерой (дискретной частью), - абсолютно непрерывная вероятностная мера, а - вероятностная мера, сингулярная относительно меры Лебега, но не содержащая атомов (сингулярная часть). - случайная величина такая, что . Предположим, что распределение можно представить как

куда дискретная мера и - абсолютно непрерывная вероятностная мера с . потом

Более того, учитывая и дифференциальная энтропия , то -Мерная энтропия просто дается

куда энтропия Шеннона дискретной случайной величины с и и дано

Пример

Стандартное распределение Гаусса для иллюстрации example.png

Рассмотрим сигнал, имеющий Гауссово распределение вероятностей.

Пропускаем сигнал через полуволну выпрямитель который преобразует все отрицательные значения в 0 и сохраняет все остальные значения. Однополупериодный выпрямитель можно охарактеризовать функцией

Исправленное распределение по Гауссу.png

Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение. Он характеризуется атомной массой 0,5 и имеет гауссову PDF для всех .

С этим распределением смеси мы применяем приведенную выше формулу и получаем информационное измерение распределения и вычислить -мерная энтропия.

Нормализованная правая часть гауссова распределения с нулевым средним имеет энтропию , следовательно

Связь с дифференциальной энтропией

Показано [3] это информационное измерение и дифференциальная энтропия тесно связаны.

Позволять - положительная случайная величина с плотностью .

Простая непрерывная функция, которая используется для квантования.png

Предположим, мы разделим диапазон в ячейки длины . По теореме о среднем значении существует значение в каждом бункере так, чтобы

Рассмотрим дискретизированную случайную величину если .

F (x), который уже был квантован в несколько функций Дирака. Png

Вероятность каждой точки поддержки является

Энтропия этой переменной равна

Если мы установим и затем мы делаем то же самое квантование, что и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не меняет ее энтропию, мы имеем

Это дает

и когда достаточно большой,

которая является дифференциальной энтропией непрерывной случайной величины. В частности, если интегрируем по Риману, то

Сравнивая это с -мерная энтропия показывает, что дифференциальная энтропия - это в точности одномерная энтропия

Фактически, это можно обобщить на более высокие измерения. Реньи показывает, что если случайный вектор в -мерное евклидово пространство с абсолютно непрерывным распределением с функцией плотности вероятности и конечная энтропия целой части (), у нас есть

и

если интеграл существует.

Сжатие данных без потерь

Информационное измерение распределения дает теоретическую верхнюю границу степени сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число с меньшим количеством действительного числа, которое имеет бесконечную точность.

Основная цель сжатия данных без потерь - найти эффективные представления для исходных реализаций. к . А код для это пара отображений:

  • кодировщик: который преобразует информацию из источника в символы для передачи или хранения;
  • декодер: - это обратный процесс, преобразовывающий кодовые символы обратно в форму, понятную получателю.

Вероятность ошибки блока равна .

Определять быть пределом такая, что существует последовательность коды такие, что для всех достаточно больших .

Так в основном дает соотношение между длиной кода и длиной источника, это показывает, насколько хороша конкретная пара кодеров-декодеров. Основные ограничения в кодировании источников без потерь следующие.[4]

Рассмотрим функцию непрерывного энкодера с функцией непрерывного декодирования . Если мы не налагаем регулярности на и , благодаря богатой структуре , у нас есть минимум -достижимая ставка для всех . Это означает, что можно построить пару кодер-декодер с бесконечной степенью сжатия.

Чтобы сделать несколько нетривиальных и содержательных выводов, позвольте минимум достижимая скорость для линейного кодировщика и декодера Бореля. Если случайная величина имеет распределение, которое представляет собой смесь дискретной и непрерывной частей. потом для всех Предположим, мы ограничиваем декодер непрерывной липшицевой функцией и выполняется, то минимум достижимая ставка для всех .

Смотрите также

Примечания

  1. ^ Видеть Реньи 1959.
  2. ^ Видеть Inlar 2011.
  3. ^ Видеть Обложка и Томас 2012.
  4. ^ Видеть Wu & Verdu 2010.

Рекомендации

  • Чинлар, Эрхан (2011). Вероятность и стохастика. Тексты для выпускников по математике. 261. Springer. Дои:10.1007/978-0-387-87859-1. ISBN 978-0-387-87858-4.CS1 maint: ref = harv (связь)
  • Реньи, А. (март 1959 г.). «О размерности и энтропии вероятностных распределений». Acta Mathematica Academiae Scientiarum Hungaricae. 10 (1–2): 193–215. Дои:10.1007 / BF02063299. ISSN 0001-5954.CS1 maint: ref = harv (связь)