Диаграмма Венна теоретико-информационных мер для трех переменных , , и , представленные нижним левым, нижним правым и верхним кругами соответственно. Условные взаимные сведения , и представлены желтой, голубой и пурпурной областями соответственно.
Для случайных величин , , и с комплекты поддержки, и , определим условную взаимную информацию как
Это можно записать в терминах оператора ожидания: .
Таким образом является ожидаемым (относительно ) Дивергенция Кульбака – Лейблера из условного совместного распределения к произведению условных маргиналов и . Сравните с определением взаимная информация.
В терминах PMF для дискретных распределений
Для дискретных случайных величин , , и с комплекты поддержки, и , условная взаимная информация как следует
где маргинальный, совместный и / или условный вероятностные массовые функции обозначаются с соответствующим индексом. Это можно упростить как
С точки зрения pdf для непрерывных распределений
Для (абсолютно) непрерывных случайных величин , , и с комплекты поддержки, и , условная взаимная информация как следует
где маргинальный, совместный и / или условный функции плотности вероятности обозначаются с соответствующим индексом. Это можно упростить как
Некоторые личности
В качестве альтернативы мы можем писать в терминах совместных и условных энтропии в качестве[3]
Его можно переписать, чтобы показать его отношение к взаимной информации.
обычно переставляется как цепное правило для взаимной информации
Другой эквивалентной формой вышеизложенного является[4]
Или как математическое ожидание более простых расхождений Кульбака – Лейблера:
,
.
Более общее определение
Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции обычная условная вероятность. (Смотрите также.[5][6])
Позволять быть вероятностное пространство, и пусть случайные величины , , и каждый может быть определен как измеримая по Борелю функцию из в некоторое пространство состояний, наделенное топологической структурой.
Рассмотрим борелевскую меру (на σ-алгебре, порожденной открытыми множествами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому борелевскому множеству -меры его прообраза в . Это называется предварительная мера В поддержка случайной величины определяется как топологическая поддержка этой меры, т.е.
Теперь мы можем формально определить мера условной вероятности учитывая значение единицы (или через топология продукта, подробнее) случайных величин. Позволять быть измеримым подмножеством (т.е. ) и разреши Затем, используя теорема распада:
где предел берется по открытым окрестностям из , так как им разрешено становиться произвольно меньше по отношению к установить включение.
Наконец, мы можем определить условную взаимную информацию через Интеграция Лебега:
где подынтегральное выражение - это логарифм Производная Радона – Никодима с участием некоторых из только что определенных нами условных вероятностных мер.
Примечание к обозначениям
В таком выражении, как и не обязательно ограничиваться представлением отдельных случайных величин, но может также представлять совместное распределение любого набора случайных величин, определенных на одном и том же вероятностное пространство. Как это принято в теория вероятности, мы можем использовать запятую для обозначения такого совместного распределения, например Следовательно, использование точки с запятой (или иногда двоеточия или даже клина ) для разделения основных аргументов символа взаимной информации. (В символе такого различия нет необходимости совместная энтропия, поскольку совместная энтропия любого количества случайных величин равна энтропии их совместного распределения.)
Характеристики
Неотрицательность
Это всегда правда, что
,
для дискретных, совместно распределенных случайных величин , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенства в теории информации, в частности, неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности.[7]
Информация о взаимодействии
Использование третьей случайной величины может либо увеличить, либо уменьшить взаимную информацию: то есть разницу , называется информация о взаимодействии, может быть положительным, отрицательным или нулевым. Это так даже тогда, когда случайные величины попарно независимы. Так бывает, когда:
в таком случае , и попарно независимы и, в частности, , но
Условная взаимная информация может использоваться для индуктивного определения многомерная взаимная информация в комплекте- или теоретико-мерный смысл в контексте информационные диаграммы. В этом смысле мы определяем многомерную взаимную информацию следующим образом:
куда
Это определение идентично определению информация о взаимодействии за исключением смены знака в случае нечетного числа случайных величин. Сложность состоит в том, что эта многомерная взаимная информация (а также информация о взаимодействии) может быть положительной, отрицательной или нулевой, что затрудняет интуитивную интерпретацию этой величины. Фактически, для случайные величины, есть степени свободы в отношении того, как они могут быть коррелированы в теоретико-информационном смысле, соответствующие каждому непустому подмножеству этих переменных. Эти степени свободы ограничены различными шенноновскими и нешенноновскими типами. неравенства в теории информации.
^D. Leao, Jr. et al. Регулярная условная вероятность, распад вероятности и радоновые пространства. Proyecciones. Vol. 23, No. 1, pp. 15–29, май 2004 г., Universidad Católica del Norte, Антофагаста, Чили PDF