WikiDer > Точечная взаимная информация

Pointwise mutual information

Точечная взаимная информация (PMI),[1] или же точка взаимной информации, является мерой ассоциация используется в теория информации и статистика. В отличие от взаимная информация (MI), который основан на PMI, относится к отдельным событиям, тогда как MI относится к среднему значению всех возможных событий.

Определение

PMI пары результаты Икс и у принадлежащий дискретные случайные величины Икс и Y определяет количество расхождений между вероятностью их совпадения с учетом их совместное распределение и их индивидуальные распределения, предполагая независимость. Математически:

В взаимная информация (MI) случайных величин Икс и Y - ожидаемое значение PMI (по всем возможным результатам).

Мера симметричная (). Может принимать положительные или отрицательные значения, но равен нулю, если Икс и Y находятся независимый. Обратите внимание, что даже если PMI может быть отрицательным или положительным, его ожидаемый результат по всем совместным мероприятиям (MI) положительный. PMI максимизируется, когда Икс и Y идеально связаны (т.е. или же ), что дает следующие оценки:

Ну наконец то, увеличится, если исправлено, но уменьшается.

Вот пример для иллюстрации:

Иксуп(Иксу)
000.1
010.7
100.15
110.05

Используя эту таблицу, мы можем маргинализировать чтобы получить следующую дополнительную таблицу для отдельных распределений:

п(Икс)п(у)
00.80.25
10.20.75

В этом примере мы можем вычислить четыре значения для . Используя логарифмы с основанием 2:

pmi (х = 0; у = 0)=−1
pmi (х = 0; у = 1)=0.222392
pmi (х = 1; у = 0)=1.584963
pmi (х = 1; у = 1)=-1.584963

(Для справки: взаимная информация тогда будет 0,2141709)

Сходства с взаимной информацией

Точечная взаимная информация имеет многие из тех же отношений, что и взаимная информация. Особенно,

Где это самоинформация, или же .

Нормализованная поточечная взаимная информация (npmi)

Точечная взаимная информация может быть нормализована между [-1, + 1], в результате чего -1 (в пределе) никогда не встречается вместе, 0 для независимости и +1 для полной совпадение.[2]

Где это совместное самоинформация, который оценивается как .

Варианты PMI

Помимо упомянутого выше npmi, у PMI есть много других интересных вариантов. Сравнительное исследование этих вариантов можно найти в [3]

Цепное правило для pmi

Нравиться взаимная информация,[4] точечная взаимная информация следует за Правило цепи, то есть,

Это легко доказывается:

Приложения

В компьютерная лингвистика, PMI использовался для поиска словосочетания и ассоциации между словами. Например, подсчеты событий и совпадение слов в текстовый корпус можно использовать для аппроксимации вероятностей и соответственно. В следующей таблице показано количество пар слов, получивших наибольшее и наименьшее количество баллов PMI в первых 50 миллионах слов в Википедии (дамп за октябрь 2015 г.) с фильтрацией по 1000 или более совпадений. Частоту каждого подсчета можно получить, разделив его значение на 50 000 952. (Примечание: в этом примере для расчета значений PMI используется натуральный логарифм вместо логарифмической базы 2)

слово 1слово 2считать слово 1считать слово 2количество совпаденийPMI
ПуэртоРико19381311115910.0349081703
гонгКонг2438269422059.72831972408
лосАнгелес3501280827919.56067615065
углероддиоксид4265135310329.09852946116
призлауреат5131167612108.85870710982
санФранциско5237247717798.83305176711
благородныйприз4098513124988.68948811416
ледхоккей5607300219338.6555759741
звездапоход8264159414898.63974676575
машинаВодитель5578274913848.41470768304
Этото28389132932963347-1.72037278119
находятсяиз23445817614361019-2.09254205335
этото19988232932961211-2.38612756961
являетсяиз56567917614361562-2.54614706831
ииз137539617614362949-2.79911817902
аи98444213753961457-2.92239510038
ви118765213753961537-3.05660070757
ки102565913753961286-3.08825363041
кв102565911876521066-3.12911348956
изи176143613753961190-3.70663100173

Хорошие пары словосочетаний имеют высокий PMI, потому что вероятность совпадения лишь немного ниже, чем вероятность появления каждого слова. И наоборот, пара слов, вероятность появления которых значительно выше, чем вероятность их совместного появления, получает небольшую оценку PMI.

Рекомендации

  1. ^ Церковь Кеннета Уорда и Патрика Хэнкса (март 1990 г.). «Нормы словесных ассоциаций, взаимная информация и лексикография». Comput. Лингвист. 16 (1): 22–29.
  2. ^ Баума, Герлоф (2009). «Нормализованная (точечная) взаимная информация при извлечении словосочетаний» (PDF). Материалы двухгодичной конференции GSCL.
  3. ^ Франсуа Роль, Моахмед Надиф. Обработка влияния низкочастотных событий на показатели сходства слов, основанные на совпадении: пример точечной взаимной информации. Материалы KDIR 2011: Международная конференция KDIR по открытию знаний и информационному поиску, Париж, 26-29 октября 2011 г.
  4. ^ Пол Л. Уильямс. ИНФОРМАЦИОННАЯ ДИНАМИКА: ЕЕ ТЕОРИЯ И ПРИМЕНЕНИЕ К ВОПЛОЩЕННЫМ КОГНИТИВНЫМ СИСТЕМАМ.

внешняя ссылка