WikiDer > Скорость энтропии
Теория информации |
---|
В математической теории вероятность, то скорость энтропии или скорость исходной информации из случайный процесс неформально представляет собой временную плотность средней информации в стохастическом процессе. Для случайных процессов с счетный индекс, энтропия показатель это предел совместная энтропия из участники процесса деленное на , так как как правило бесконечность:
когда предел существует. Альтернативное связанное количество:
За сильно стационарный случайные процессы, . Скорость энтропии можно рассматривать как общее свойство стохастических источников; это асимптотическое свойство равнораспределения. Скорость энтропии может использоваться для оценки сложности случайных процессов. Он используется в различных приложениях, начиная от описания сложности языков, слепого разделения источников и заканчивая оптимизацией квантователей и алгоритмов сжатия данных. Например, критерий максимальной скорости энтропии может использоваться для выбор функции в машинное обучение.[1]
Нормы энтропии для цепей Маркова
Поскольку случайный процесс, определяемый Цепь Маркова это несводимый, апериодическийи положительный повторяющийся имеет стационарное распределениескорость энтропии не зависит от начального распределения.
Например, для такой цепи Маркова определено на счетный количество государств, учитывая матрица перехода , дан кем-то:
где это асимптотическое распределение цепи.
Простым следствием этого определения является то, что i.i.d. случайный процесс имеет скорость энтропии, которая такая же, как у энтропия любого отдельного участника процесса.
Смотрите также
- Источник информации (математика)
- Марковский источник информации
- Асимптотическое свойство равнораспределения
- Случайное блуждание с максимальной энтропией - выбран, чтобы максимизировать скорость энтропии
Рекомендации
- ^ Эйнике, Г. А. (2018). «Выбор характеристик с максимальной энтропией для классификации изменений в динамике коленного и голеностопного суставов во время бега». Журнал IEEE по биомедицинской и медицинской информатике. 28 (4): 1097–1103. Дои:10.1109 / JBHI.2017.2711487. PMID 29969403.
- Кавер, Т. и Томас, Дж. (1991) Элементы теории информации, John Wiley and Sons, Inc., ISBN 0-471-06259-6 [1]