WikiDer > Информация о взаимодействии
В информация о взаимодействии (McGill 1954), или количество информации (Ху Го Тин, 1962) или совместная информация (Bell 2003), является одним из нескольких обобщений взаимная информация.
Информация о взаимодействии выражает объем информации (избыточность или синергизм), связанный с набором переменных, вне то, что присутствует в любом подмножестве этих переменных. В отличие от взаимной информации, информация о взаимодействии может быть как положительной, так и отрицательной. Это сбивающее с толку свойство, вероятно, задержало его более широкое распространение в качестве информационной меры в машинное обучение и наука о мышлении. Эти функции, их отрицательность и минимумы имеют прямую интерпретацию в алгебраическая топология (Бодо и Беннекен, 2015).
Случай трех переменных
Для трех переменных , информация о взаимодействии дан кем-то
где, например, взаимная информация между переменными и , и это условная взаимная информация между переменными и данный . Формально,
и
Отсюда следует, что
Для случая трех переменных информация о взаимодействии разница между информацией, которой поделился когда был исправлен и когда не было исправлено. (См. Также учебник Фано 1961 года.) Информация о взаимодействии измеряет влияние переменной. об объеме информации, передаваемой между . Потому что срок может быть больше, чем - например, когда оба и оказывать совместное воздействие на но независимы друг от друга, не зная , информация о взаимодействии может быть как положительной, так и отрицательной. Положительный информация о взаимодействии указывает, что переменная подавляет (т.е. аккаунты для или же объясняет некоторые из) корреляция между , в то время как отрицательный информация о взаимодействии указывает, что переменная облегчает или усиливает корреляцию между .
Информация о взаимодействии ограничена. В случае трех переменных он ограничен (Yeung 91)
Пример информации о положительном взаимодействии
Информация о положительном взаимодействии кажется гораздо более естественной, чем информация об отрицательном взаимодействии в том смысле, что такая пояснительный эффекты типичны для структур общей причины. Например, облака вызывают дождь, а также закрывают солнце; следовательно, корреляция между дождем и темнотой частично объясняется наличием облаков, . Результат - положительная информация о взаимодействии .
Пример информации о негативном взаимодействии
Случай с информацией о негативном взаимодействии кажется немного менее естественным. Типичный пример негатива имеет как выход элемента XOR, к которому и являются независимыми случайными входами. В этом случае будет ноль, но будет положительным (1 кусочек), поскольку один раз вывод известно, значение на входе полностью определяет значение на входе . С , результат - отрицательная информация о взаимодействии . Может показаться, что в этом примере используется своеобразное упорядочение чтобы получить отрицательное взаимодействие, но симметрия определения для указывает, что результат одного и того же отрицательного взаимодействия не зависит от того, какую переменную мы считаем нарушитель или кондиционирующая переменная. Например, введите и вывод также независимы до ввода фиксировано, и в этот момент они полностью зависят (очевидно), и у нас есть та же информация об отрицательном взаимодействии, что и раньше, .
Эта ситуация является примером, когда исправление общий эффект причин и вызывает зависимость между причинами, которых раньше не было. Такое поведение в просторечии называется объясняя и подробно обсуждается в Байесовская сеть литературе (например, Pearl 1988). Пример Перла - автоматическая диагностика: двигатель автомобиля может не заводиться. либо из-за разряженной батареи или из-за заблокированного топливного насоса . Обычно мы предполагаем, что выход из строя аккумуляторной батареи и блокировка топливного насоса являются независимыми событиями из-за существенной модульности таких автомобильных систем. Таким образом, в отсутствие другой информации знание того, разрядился аккумулятор или нет, не дает нам информации о том, заблокирован ли топливный насос. Однако, если мы узнаем, что машина не заводится (т. Е. Исправляем общий эффект ), эта информация вызывает зависимость между двумя причинами смерть батареи и засорение топлива. Таким образом, зная, что автомобиль не заводится, если проверка показывает, что аккумулятор находится в хорошем состоянии, мы можем сделать вывод, что топливный насос должен быть заблокирован.
Смерть батареи и засорение топлива таким образом зависят, обусловлены их общим действием запуск машины. Предыдущее обсуждение указывает на то, что очевидная направленность в графе общих эффектов противоречит глубокой информационной симметрии: если обусловленность общего эффекта увеличивает зависимость между двумя его родительскими причинами, то обусловливание одной из причин должно вызывать такое же усиление зависимости. между второй причиной и общим следствием. В автомобильном примере Перла, если машина заводится побуждает биты зависимости между двумя причинами батарея разряжена и топливо заблокировано, затем кондиционированиетопливо заблокировано должен побудить биты зависимости между батарея разряжена и машина заводится. Это может показаться странным, потому что батарея разряжена и машина заводится уже регулируются подтекстом батарея разряжена машина не заводится. Однако эти переменные все еще не полностью коррелированы, потому что обратное неверно. Кондиционирование на топливо заблокировано устраняет главную альтернативную причину неудачного запуска и усиливает обратную связь и, следовательно, связь между батарея разряжена и машина заводится. В статье Tsujishita (1995) более подробно рассматривается взаимная информация третьего порядка.
Положительность для цепей Маркова
Если три переменные образуют цепь Маркова , тогда , но . Отсюда мы сделали вывод, что
Случай с четырьмя переменными
Можно рекурсивно определить п-мерная информация о взаимодействии с точки зрения -мерная информация о взаимодействии. Например, информация о четырехмерном взаимодействии может быть определена как
или, что то же самое,
В п-переменный случай
Все эти результаты можно распространить на любое количество измерений. Общее выражение для информации о взаимодействии с набором переменных в терминах предельной энтропии дано Ху Куо Тингом (1962), Якулин и Братко (2003).
которая является альтернированной суммой (включение-исключение) по всем подмножествам , куда . Обратите внимание, что это теоретико-информационный аналог Приближение Кирквуда.
Трудности с интерпретацией информации о взаимодействии
Возможная негативность информации о взаимодействии может быть источником некоторой путаницы (Bell 2003). В качестве примера этой путаницы рассмотрим набор из восьми независимых двоичных переменных. . Агломерируйте эти переменные следующим образом:
Поскольку перекрывают друг друга (избыточны) по трем двоичным переменным , мы ожидаем, что информация о взаимодействии в равной биты, которые он делает. Однако теперь рассмотрим агломерированные переменные
Это те же переменные, что и раньше, с добавлением . Тем не мение, в этом случае фактически равно бит, указывающий на меньшую избыточность. Это правильно в том смысле, что
но по-прежнему трудно интерпретировать.
Использует
- Якулин и Братко (2003b) предлагают алгоритм машинного обучения, который использует информацию о взаимодействии.
- Киллиан, Кравиц и Гилсон (2007) используют расширение взаимной информации для извлечения оценок энтропии из молекулярного моделирования.
- ЛеВин и Вайнштейн (2014) используют информацию о взаимодействии и другие меры информации о N-телах для количественной оценки аллостерических связей в молекулярном моделировании.
- Мур и др. (2006), Chanda P, Zhang A, Brazeau D, Sucheston L, Freudenheim JL, Ambrosone C, Ramanathan M. (2007) и Chanda P, Sucheston L, Zhang A, Brazeau D, Freudenheim JL, Ambrosone C, Ramanathan M. (2008) демонстрируют использование информации о взаимодействии для анализа взаимодействия генов и генов со средой, связанных со сложными заболеваниями.
- Панди и Саркар (2017) используют информацию о взаимодействии в космологии для изучения влияния крупномасштабной окружающей среды на свойства галактик.
- Доступен пакет python для вычисления всего многомерного взаимодействия или взаимной информации, условной взаимной информации, совместных энтропий, общих корреляций, информационного расстояния в наборе данных из n переменных.[1]
Рекомендации
- ^ "InfoTopo: Анализ топологической информации. Глубокое статистическое обучение без учителя и с учителем - Обмен файлами - Github". github.com/pierrebaudot/infotopopy/. Получено 26 сентября 2020.
- Baudot, P .; Беннекен, Д. (2015). «Гомологическая природа энтропии» (PDF). Энтропия. 17 (5): 1–66. Bibcode:2015 Энтрп..17.3253Б. Дои:10.3390 / e17053253.
- Белл, А. Дж. (2003), Решетка соинформации [1]
- Фано, Р. М. (1961), Передача информации: статистическая теория коммуникации, MIT Press, Кембридж, Массачусетс.
- Гарнер В. Р. (1962). Неопределенность и структура как психологические концепции, JohnWiley & Sons, Нью-Йорк.
- Хан, Т. С. (1978). «Неотрицательные энтропийные меры многомерных симметричных корреляций». Информация и контроль. 36 (2): 133–156. Дои:10.1016 / с0019-9958 (78) 90275-9.
- Хан, Т. С. (1980). «Множественная взаимная информация и множественные взаимодействия в частотных данных». Информация и контроль. 46: 26–45. Дои:10.1016 / s0019-9958 (80) 90478-7.
- Ху Го Тин (1962), Об объеме информации. Теория вероятн. Appl., 7 (4), 439-44. PDF
- Якулин А. и Братко И. (2003a). Анализ зависимостей атрибутов, в N Lavraquad {c}, D Gamberger, L Todorovski & H Blockeel, eds, Труды 7-й Европейской конференции по принципам и практике обнаружения знаний в базах данных, Springer, Цавтат-Дубровник, Хорватия, стр. 229–240.
- Якулин А. и Братко И. (2003b). Количественная оценка и визуализация взаимодействий атрибутов [2].
- Марголин А; Ван, К; Калифано, А; Неменман, I (2010). «Многомерная зависимость и вывод генетических сетей». ИЭПП Сист Биол. 4 (6): 428–440. arXiv:1001.1681. Дои:10.1049 / iet-syb.2010.0009. PMID 21073241. S2CID 14280921.
- Макгилл, В. Дж. (1954). «Многомерная передача информации». Психометрика. 19 (2): 97–116. Дои:10.1007 / bf02289159. S2CID 126431489.
- Мур Дж. Х., Гилберт Дж. С., Цай СТ, Чан Ф. Т., Холден Т., Барни Н., Уайт BC (2006). Гибкая вычислительная структура для обнаружения, описания и интерпретации статистических паттернов эпистаза в генетических исследованиях восприимчивости человека к болезням, Журнал теоретической биологии 241, 252-261. [3]
- Неменман I (2004). Теория информации, многомерная зависимость и генетический сетевой вывод [4].
- Перл, Дж (1988), Вероятностное мышление в интеллектуальных системах: сети правдоподобных выводов, Морган Кауфманн, Сан-Матео, Калифорния.
- Tsujishita, T (1995), «О тройной взаимной информации», Успехи прикладной математики 16, 269-274.
- Chanda, P; Чжан, А; Brazeau, D; Sucheston, L; Freudenheim, JL; Амброзон, C; Раманатан, М. (2007). «Теоретико-информационные метрики для визуализации взаимодействий гена и окружающей среды». Американский журнал генетики человека. 81 (5): 939–63. Дои:10.1086/521878. ЧВК 2265645. PMID 17924337.
- Chanda, P; Sucheston, L; Чжан, А; Brazeau, D; Freudenheim, JL; Амброзон, C; Раманатан, М. (2008). «AMBIENCE: новый подход и эффективный алгоритм для выявления информативных генетических и экологических ассоциаций со сложными фенотипами». Генетика. 180 (2): 1191–210. Дои:10.1534 / genetics.108.088542. ЧВК 2567367. PMID 18780753.
- Киллиан, Би Джей; Kravitz, JY; Гилсон, М. К. (2007). «Извлечение конфигурационной энтропии из молекулярного моделирования с помощью приближения расширения». J. Chem. Phys. 127 (2): 024107. Bibcode:2007ЖЧФ.127б4107К. Дои:10.1063/1.2746329. ЧВК 2707031. PMID 17640119.
- ЛеВин М.В., Вайнштейн Х (2014), NbIT - Анализ аллостерических механизмов на основе новой теории информации выявляет остатки, которые лежат в основе функции переносчика лейцина LeuT. PLoS вычислительная биология. [5]
- Панди, Бисваджит; Саркар, Суман (2017). «Насколько галактика знает о своем крупномасштабном окружении ?: Теоретическая перспектива». Ежемесячные уведомления о письмах Королевского астрономического общества. 467 (1): L6. arXiv:1611.00283. Bibcode:2017МНРАС.467Л ... 6П. Дои:10.1093 / mnrasl / slw250. S2CID 119095496.
- https://www3.nd.edu/~jnl/ee80653/Fall2005/tutorials/sunil.pdf
- Енг Р. В. (1992). Новый взгляд на информационные меры Шеннона. в IEEE Transactions по теории информации.