WikiDer > Скрытая марковская модель
Скрытая марковская модель (ХМ) это статистический Марковская модель в котором система смоделированный считается Марковский процесс - назови это - с ненаблюдаемым ("скрытый")". HMM предполагает, что существует другой процесс чье поведение "зависит" от . Цель - узнать о наблюдая . HMM требует, чтобы каждый раз , условное распределение вероятностей учитывая историю должен нет зависит от .
Скрытые марковские модели известны своими приложениями к термодинамика, статистическая механика, физика, химия, экономика, финансы, обработка сигналов, теория информации, распознавание образов - Такие как речь, почерк, распознавание жеста,[1] теги части речи, музыкальное сопровождение,[2] частичные разряды[3] и биоинформатика.[4]
Определение
Позволять и быть дискретным случайные процессы и . Пара это скрытая марковская модель если
- это Марковский процесс и чьи состояния и вероятности перехода не наблюдаются напрямую («скрыты»);
для каждого и произвольный (измеримый) набор .
Терминология
Состояния процесса, называются скрытые состояния, и называется вероятность выброса или же вероятность выхода.
Примеры
В дискретной форме скрытый марковский процесс можно представить как обобщение проблема с урной с заменой (где каждый элемент из урны возвращается в исходную урну перед следующим шагом).[5] Рассмотрим такой пример: в комнате, невидимой для наблюдателя, находится джинн. В комнате находятся урны X1, X2, X3, ... каждая из которых содержит известную смесь шаров, каждый шар помечен как y1, y2, y3, .... Джинн выбирает урну в этой комнате и случайным образом вытягивает из нее шар. Затем он помещает мяч на конвейерную ленту, где наблюдатель может наблюдать последовательность шаров, но не последовательность урн, из которых они были извлечены. У джинна есть процедура выбора урн; выбор урны для п-й шар зависит только от случайного числа и выбора урны для (п - 1) -й шар. Выбор урны не зависит напрямую от урн, выбранных перед этой единственной предыдущей урной; поэтому это называется Марковский процесс. Это можно описать верхней частью рисунка 1.
Сам марковский процесс нельзя наблюдать, только последовательность помеченных шаров, поэтому такое расположение называется «скрытым марковским процессом». Это иллюстрируется нижней частью диаграммы, показанной на рисунке 1, где видно, что шары y1, y2, y3, y4 могут быть нарисованы в каждом состоянии. Даже если наблюдатель знает состав урн и только что заметил последовательность из трех шаров, например y1, y2 и y3 на конвейерной ленте, наблюдатель по-прежнему не может быть Конечно какая урна (т.е., в каком состоянии) джинн вытащил третий шар. Однако наблюдатель может получить другую информацию, например, вероятность того, что третий шар попал из каждой из урн.
Угадайка погоды
Рассмотрим двух друзей, Алису и Боба, которые живут далеко друг от друга и каждый день вместе по телефону обсуждают то, что они сделали в тот день. Боба интересуют только три занятия: прогулки в парке, покупки и уборка в квартире. Выбор того, чем заняться, определяется исключительно погодой в данный день. Алиса не имеет точной информации о погоде, но знает общие тенденции. Основываясь на том, что Боб говорит ей, что он делал каждый день, Алиса пытается угадать, какой должна была быть погода.
Алиса считает, что погода действует как дискретная Цепь Маркова. Есть два состояния: «Дождливый» и «Солнечный», но она не может наблюдать их напрямую, то есть они скрытый от нее. Каждый день есть определенная вероятность, что Боб будет выполнять одно из следующих действий, в зависимости от погоды: «гулять», «делать покупки» или «убирать». Поскольку Боб рассказывает Алисе о своих действиях, это наблюдения. Вся система представляет собой скрытую марковскую модель (HMM).
Алиса знает общие погодные тенденции в этом районе и то, что в среднем любит делать Боб. Другими словами, параметры HMM известны. Их можно представить в следующем виде: Python:
состояния = ('Rainy', 'Солнечный') наблюдения = ('ходить', 'магазин', 'чистый') start_probability = {'Rainy': 0.6, 'Солнечный': 0.4} transition_probability = { 'Rainy' : {'Rainy': 0.7, 'Солнечный': 0.3}, 'Солнечный' : {'Rainy': 0.4, 'Солнечный': 0.6}, } Emission_probability = { 'Rainy' : {'ходить': 0.1, 'магазин': 0.4, 'чистый': 0.5}, 'Солнечный' : {'ходить': 0.6, 'магазин': 0.3, 'чистый': 0.1}, }
В этом фрагменте кода start_probability
представляет представление Алисы о том, в каком состоянии находится HMM, когда Боб впервые звонит ей (все, что она знает, это то, что в среднем обычно бывает дождливо). Используемое здесь конкретное распределение вероятностей не является равновесным, которое (с учетом вероятностей перехода) приблизительно {Rainy: 0,57, Sunny: 0,43}
. В transition_probability
представляет изменение погоды в основной цепи Маркова. В этом примере вероятность того, что завтра будет солнечным, составляет всего 30%, если сегодня дождливый день. В Emission_probability
показывает, насколько вероятно, что Боб будет выполнять определенное действие каждый день. Если идет дождь, вероятность того, что он убирает свою квартиру, составляет 50%; если солнечно, то с вероятностью 60% он выйдет на прогулку.
Аналогичный пример более подробно рассматривается в Алгоритм Витерби страница.
Структурная архитектура
На диаграмме ниже показана общая архитектура созданного экземпляра HMM. Каждая овальная форма представляет собой случайную переменную, которая может принимать любое из ряда значений. Случайная величина Икс(т) - это скрытое состояние во время т (с моделью из диаграммы выше, Икс(т) ∈ { Икс1, Икс2, Икс3 }). Случайная величина у(т) - наблюдение во время т (с у(т) ∈ { у1, у2, у3, у4 }). Стрелки на диаграмме (часто называемые решетчатая диаграмма) обозначают условные зависимости.
Из диаграммы видно, что условное распределение вероятностей скрытой переменной Икс(т) вовремя т, учитывая значения скрытой переменной Икс всегда, зависит Только от значения скрытой переменной Икс(т - 1); ценности на время т - 2 и ранее не имеют влияния. Это называется Марковская собственность. Точно так же значение наблюдаемой переменной у(т) зависит только от значения скрытой переменной Икс(т) (оба одновременно т).
В рассматриваемом здесь стандартном типе скрытой марковской модели пространство состояний скрытых переменных является дискретным, в то время как сами наблюдения могут быть дискретными (обычно генерируются из категориальное распределение) или непрерывный (обычно от Гауссово распределение). Параметры скрытой марковской модели бывают двух типов: вероятности перехода и вероятности выбросов (также известный как вероятности выхода). Вероятности перехода определяют способ скрытого состояния во времени. т выбирается с учетом скрытого состояния во время .
Предполагается, что скрытое пространство состояний состоит из одного из N возможные значения, смоделированные как категориальное распределение. (См. Другие возможности в разделе о расширениях.) Это означает, что для каждого из N возможные состояния, что скрытая переменная во время т может быть в, существует вероятность перехода из этого состояния в каждое из N возможные состояния скрытой переменной во время , в общей сложности вероятности перехода. Обратите внимание, что набор вероятностей переходов для переходов из любого данного состояния должен в сумме равняться 1. Таким образом, матрица переходных вероятностей представляет собой Матрица Маркова. Поскольку вероятность любого одного перехода может быть определена после того, как станут известны другие, существует всего параметры перехода.
Кроме того, для каждого из N возможных состояний, существует набор вероятностей выбросов, управляющих распределением наблюдаемой переменной в конкретный момент времени с учетом состояния скрытой переменной в это время. Размер этого набора зависит от природы наблюдаемой переменной. Например, если наблюдаемая переменная дискретна с M возможные значения, регулируемые категориальное распределение, будут отдельные параметры, всего параметры излучения по всем скрытым состояниям. С другой стороны, если наблюдаемая переменная является M-мерный вектор, распределенный по произвольной многомерное распределение Гаусса, будут M параметры, контролирующие средства и параметры, контролирующие ковариационная матрица, в общей сложности параметры выбросов. (В таком случае, если значение M мала, может быть более практичным ограничить характер ковариаций между отдельными элементами вектора наблюдения, например предполагая, что элементы независимы друг от друга или, менее строго, независимы от всех, кроме фиксированного числа смежных элементов.)
Вывод
Несколько вывод проблемы связаны со скрытыми марковскими моделями, как описано ниже.
Вероятность наблюдаемой последовательности
Задача состоит в том, чтобы вычислить наилучшим образом, учитывая параметры модели, вероятность конкретной выходной последовательности. Это требует суммирования по всем возможным последовательностям состояний:
Вероятность наблюдения последовательности
длины L дан кем-то
где сумма пробегает все возможные последовательности скрытых узлов
Применяя принцип динамическое программирование, эту проблему также можно эффективно решить с помощью прямой алгоритм.
Вероятность скрытых переменных
В ряде связанных задач задается вопрос о вероятности одной или нескольких скрытых переменных с учетом параметров модели и последовательности наблюдений.
Фильтрация
Задача состоит в том, чтобы вычислить, учитывая параметры модели и последовательность наблюдений, распределение по скрытым состояниям последней скрытой переменной в конце последовательности, т.е. вычислить . Эта задача обычно используется, когда последовательность скрытых переменных рассматривается как базовые состояния, через которые процесс проходит в последовательности моментов времени с соответствующими наблюдениями в каждый момент времени. Затем естественно спросить о состоянии процесса в конце.
Эту проблему можно эффективно решить с помощью прямой алгоритм.
Сглаживание
Это похоже на фильтрацию, но спрашивает о распределении скрытой переменной где-то в середине последовательности, то есть для вычисления для некоторых . С точки зрения, описанной выше, это можно рассматривать как распределение вероятностей по скрытым состояниям для определенного момента времени. k в прошлом относительно времени т.
В алгоритм вперед-назад - хороший метод вычисления сглаженных значений для всех скрытых переменных состояния.
Наиболее вероятное объяснение
Задача, в отличие от двух предыдущих, спрашивает о совместная вероятность из весь последовательность скрытых состояний, порождающая определенную последовательность наблюдений (см. иллюстрацию справа). Эта задача обычно применима, когда HMM применяются к разным типам задач, кроме тех, для которых применимы задачи фильтрации и сглаживания. Примером является теги части речи, где скрытые состояния представляют собой лежащие в основе части речи соответствующий наблюдаемой последовательности слов. В этом случае интерес представляет собой всю последовательность частей речи, а не просто часть речи для отдельного слова, как при фильтрации или сглаживании.
Эта задача требует нахождения максимума по всем возможным последовательностям состояний и может быть эффективно решена с помощью Алгоритм Витерби.
Статистическая значимость
Для некоторых из вышеперечисленных проблем также может быть интересно спросить о Статистическая значимость. Какова вероятность того, что последовательность, взятая из некоторых нулевое распределение будет иметь вероятность HMM (в случае прямого алгоритма) или максимальную вероятность последовательности состояний (в случае алгоритма Витерби) не меньше, чем у конкретной выходной последовательности?[6] Когда HMM используется для оценки релевантности гипотезы для конкретной выходной последовательности, статистическая значимость указывает на то, что ложноположительный рейтинг связано с неспособностью отклонить гипотезу для выходной последовательности.
Учусь
Задача обучения параметрам в HMM состоит в том, чтобы найти для данной выходной последовательности или набора таких последовательностей наилучший набор вероятностей перехода между состояниями и выбросов. Обычно задача состоит в том, чтобы получить максимальная вероятность оценка параметров HMM с учетом набора выходных последовательностей. Неизвестно ни одного поддающегося обработке алгоритма для точного решения этой проблемы, но локальное максимальное правдоподобие может быть эффективно получено с помощью Алгоритм Баума – Велча или алгоритм Бальди – Шовена. В Алгоритм Баума – Велча это частный случай алгоритм максимизации ожидания. Если HMM используются для прогнозирования временных рядов, более сложные байесовские методы вывода, такие как Цепь Маркова Монте-Карло (MCMC) выборка оказалась более предпочтительной по сравнению с поиском единой модели максимального правдоподобия как с точки зрения точности, так и стабильности.[7] Поскольку MCMC накладывает значительную вычислительную нагрузку, в случаях, когда вычислительная масштабируемость также представляет интерес, можно в качестве альтернативы прибегнуть к вариационным приближениям к байесовскому выводу, например[8] В самом деле, приближенный вариационный вывод предлагает вычислительную эффективность, сопоставимую с максимизацией математического ожидания, в то же время давая профиль точности, лишь немного уступающий точному байесовскому выводу типа MCMC.
Приложения
HMM могут применяться во многих областях, где цель состоит в том, чтобы восстановить последовательность данных, которую нельзя сразу наблюдать (но есть другие данные, которые зависят от последовательности). Приложения включают:
- Вычислительные финансы[9][10]
- Кинетический анализ одиночных молекул[11]
- Криптоанализ
- Распознавание речи, включая Siri[12]
- Синтез речи
- Пометка части речи
- Разделение документов в решениях для сканирования
- Машинный перевод
- Частичный разряд
- Прогноз генов
- Распознавание почерка
- Выравнивание биопоследовательностей
- Анализ временных рядов
- Распознавание активности
- Сворачивание белков[13]
- Классификация последовательности[14]
- Обнаружение метаморфических вирусов[15]
- Открытие мотивов ДНК[16]
- Кинетика гибридизации ДНК[17][18]
- Хроматин государственное открытие[19]
- Прогнозирование перевозок[20]
- Изменчивость солнечного излучения [21][22][23]
История
В Вперед – обратный алгоритм использованный в HMM был впервые описан Руслан Львович Стратонович в 1960 г.[24] (стр. 160—162) и в конце 1950-х годов в своих статьях на русском языке. Скрытые марковские модели были позже описаны в серии статистических работ А. Леонард Э. Баум и других авторов во второй половине 1960-х гг.[25][26][27][28][29] Одним из первых применений HMM было распознавание речи, начиная с середины 1970-х гг.[30][31][32][33]
Во второй половине 1980-х годов HMM начали применять для анализа биологических последовательностей,[34] особенно ДНК. С тех пор они стали повсеместными в области биоинформатика.[35]
Расширения
В рассмотренных выше скрытых марковских моделях пространство состояний скрытых переменных является дискретным, в то время как сами наблюдения могут быть дискретными (обычно генерируемыми из категориальное распределение) или непрерывный (обычно от Гауссово распределение). Скрытые марковские модели также могут быть обобщены, чтобы разрешить непрерывные пространства состояний. Примерами таких моделей являются те, в которых марковский процесс по скрытым переменным является линейная динамическая система, с линейной зависимостью между связанными переменными и где все скрытые и наблюдаемые переменные следуют Гауссово распределение. В простых случаях, таких как только что упомянутая линейная динамическая система, можно сделать точный вывод (в этом случае с помощью Фильтр Калмана); однако в целом точный вывод в HMM с непрерывными скрытыми переменными невозможен, и необходимо использовать приближенные методы, такие как расширенный фильтр Калмана или фильтр твердых частиц.
Скрытые марковские модели генеративные модели, в которой совместное распределение наблюдений и скрытых состояний, или, что то же самое, предварительное распространение скрытых состояний ( вероятности перехода) и условное распределение данных наблюдений ( вероятности выбросов), моделируется. Вышеупомянутые алгоритмы неявно предполагают униформа априорное распределение по вероятностям перехода. Однако также возможно создавать скрытые марковские модели с другими типами априорных распределений. Очевидным кандидатом, учитывая категориальное распределение вероятностей перехода, является Распределение Дирихле, какой сопряженный предшествующий Распределение категориального распределения. Обычно выбирается симметричное распределение Дирихле, отражающее незнание того, какие состояния по своей природе более вероятны, чем другие. Единственный параметр этого распределения (названный параметр концентрации) контролирует относительную плотность или разреженность результирующей матрицы перехода. Выбор 1 дает равномерное распределение. Значения больше 1 создают плотную матрицу, в которой вероятности перехода между парами состояний, вероятно, будут почти равны. Значения меньше 1 приводят к разреженной матрице, в которой для каждого заданного исходного состояния только небольшое количество конечных состояний имеет значительные вероятности перехода. Также возможно использовать двухуровневое априорное распределение Дирихле, в котором одно распределение Дирихле (верхнее распределение) управляет параметрами другого распределения Дирихле (нижнее распределение), которое, в свою очередь, определяет вероятности перехода. Верхнее распределение управляет общим распределением состояний, определяя вероятность возникновения каждого состояния; его параметр концентрации определяет плотность или разреженность состояний. Такое двухуровневое априорное распределение, где оба параметра концентрации настроены на получение разреженных распределений, может быть полезно, например, в без присмотра теги части речи, где одни части речи встречаются гораздо чаще, чем другие; алгоритмы обучения, предполагающие равномерное априорное распределение, обычно плохо справляются с этой задачей. Параметры моделей такого типа с неоднородными априорными распределениями можно узнать, используя Выборка Гиббса или расширенные версии алгоритм максимизации ожидания.
Расширение ранее описанных скрытых марковских моделей с Дирихле priors использует Процесс Дирихле вместо распределения Дирихле. Этот тип модели допускает неизвестное и потенциально бесконечное количество состояний. Обычно используется двухуровневый процесс Дирихле, аналогичный ранее описанной модели с двумя уровнями распределений Дирихле. Такая модель называется иерархический процесс Дирихле, скрытая марковская модель, или же HDP-HMM для краткости. Первоначально она была описана под названием «Бесконечная скрытая марковская модель».[3] и был дополнительно формализован в[4].
Другой тип расширения использует дискриминационная модель вместо генеративная модель стандартных HMM. Этот тип модели непосредственно моделирует условное распределение скрытых состояний с учетом наблюдений, а не моделирует совместное распределение. Примером этой модели является так называемый максимальная энтропия марковская модель (MEMM), который моделирует условное распределение состояний с помощью логистическая регрессия (также известный как "максимальная энтропия модель "). Преимущество этого типа модели заключается в том, что можно смоделировать произвольные характеристики (то есть функции) наблюдений, что позволяет внедрить в модель предметно-ориентированные знания о рассматриваемой проблеме. Модели такого рода не ограничены для моделирования прямых зависимостей между скрытым состоянием и связанным с ним наблюдением; скорее, в процесс могут быть включены особенности близлежащих наблюдений, комбинаций связанных наблюдений и ближайших наблюдений или фактически произвольных наблюдений на любом расстоянии от данного скрытого состояния используется для определения значения скрытого состояния. Кроме того, эти функции не нужно статистически независимый друг друга, как это было бы, если бы такие особенности использовались в генеративной модели. Наконец, вместо простых вероятностей перехода могут использоваться произвольные признаки по парам смежных скрытых состояний. Недостатками таких моделей являются: (1) типы априорных распределений, которые могут быть помещены в скрытые состояния, сильно ограничены; (2) Невозможно предсказать вероятность увидеть произвольное наблюдение. Это второе ограничение часто не является проблемой на практике, поскольку многие распространенные способы использования HMM не требуют таких прогнозных вероятностей.
Вариантом ранее описанной дискриминативной модели является линейно-цепная условное случайное поле. Здесь используется неориентированная графическая модель (также известная как Марковское случайное поле), а не ориентированные графические модели MEMM и подобных моделей. Преимущество модели этого типа в том, что она не страдает так называемым предвзятость ярлыка проблема MEMM, и, таким образом, может делать более точные прогнозы. Недостатком является то, что обучение может быть медленнее, чем для MEMM.
Еще один вариант - факторная скрытая марковская модель, что позволяет обусловить единичное наблюдение соответствующими скрытыми переменными набора независимые цепи Маркова, а не одиночная цепь Маркова. Это эквивалентно одному HMM, с состояния (при условии, что состояний для каждой цепи), и поэтому обучение в такой модели затруднено: для последовательности длины , простой алгоритм Витерби имеет сложность . Чтобы найти точное решение, можно использовать алгоритм дерева соединений, но он дает сложность. На практике можно использовать приближенные методы, например вариационные подходы.[36]
Все вышеперечисленные модели могут быть расширены, чтобы учесть более отдаленные зависимости между скрытыми состояниями, например разрешение зависимости данного состояния от двух или трех предыдущих состояний, а не от одного предыдущего состояния; т.е. вероятности перехода расширены, чтобы охватить наборы из трех или четырех соседних состояний (или, в общем, соседние государства). Недостатком таких моделей является то, что алгоритмы динамического программирования для их обучения имеют время работы, для соседние государства и общее количество наблюдений (т.е. Цепь Маркова).
Еще одно недавнее расширение - триплетная марковская модель,[37] в котором добавлен вспомогательный базовый процесс для моделирования некоторых особенностей данных. Было предложено множество вариантов этой модели. Следует также отметить интересную связь, установленную между теория доказательств и триплетные марковские модели[38] и который позволяет объединять данные в марковском контексте[39] и для моделирования нестационарных данных.[40][41] Обратите внимание, что альтернативные стратегии слияния многопотоковых данных также были предложены в недавней литературе, например[42]
Наконец, в 2012 году было предложено другое обоснование решения проблемы моделирования нестационарных данных с помощью скрытых марковских моделей.[43] Он заключается в использовании небольшой рекуррентной нейронной сети (RNN), в частности сети резервуаров,[44] чтобы зафиксировать эволюцию временной динамики в наблюдаемых данных. Эта информация, закодированная в форме многомерного вектора, используется в качестве обусловливающей переменной вероятностей перехода состояний HMM. При такой установке мы в конечном итоге получаем нестационарную HMM, вероятности перехода которой меняются со временем таким образом, который выводится из самих данных, в отличие от некой нереалистичной специальной модели временной эволюции.
Модель, подходящая в контексте продольных данных, называется латентной марковской моделью.[45] Базовая версия этой модели была расширена за счет включения индивидуальных ковариат, случайных эффектов и моделирования более сложных структур данных, таких как многоуровневые данные. Полный обзор скрытых марковских моделей с особым вниманием к модельным допущениям и их практическому использованию представлен в[46]
Смотрите также
- Андрей Марков
- Алгоритм Баума – Велча
- Байесовский вывод
- Байесовское программирование
- Условное случайное поле
- Теория оценок
- HHpred / HHsearch бесплатный сервер и программное обеспечение для поиска последовательности белков
- HMMER, бесплатная программа на скрытых марковских моделях для анализа последовательности белков.
- Скрытая модель Бернулли
- Скрытая полумарковская модель
- Иерархическая скрытая марковская модель
- Многослойная скрытая марковская модель
- Последовательная динамическая система
- Стохастическая контекстно-свободная грамматика
- Временные ряды Анализ
- Марковская модель переменного порядка
- Алгоритм Витерби
Рекомендации
- ^ Тад Старнер, Алекс Пентланд. Распознавание американского жестового языка в реальном времени из видео с использованием скрытых марковских моделей. Магистерская работа, Массачусетский технологический институт, февраль 1995 г., программа по медиаискусству
- ^ Б. Пардо и В. Бирмингем. Форма для моделирования онлайн-сопровождения музыкальных представлений. AAAI-05 Proc., Июль 2005 г.
- ^ Сатиш Л., Гурурадж Б.И. (апрель 2003 г.). "Использование скрытых марковских моделей для классификации схем частичных разрядов". IEEE Transactions по диэлектрикам и электроизоляции.
- ^ Ли, Н; Стивенс, М. (декабрь 2003 г.). «Моделирование неравновесия по сцеплению и определение горячих точек рекомбинации с использованием данных однонуклеотидного полиморфизма». Генетика. 165 (4): 2213–33. ЧВК 1462870. PMID 14704198.
- ^ Лоуренс Р. Рабинер (Февраль 1989 г.). «Учебное пособие по скрытым марковским моделям и избранным приложениям в распознавании речи» (PDF). Труды IEEE. 77 (2): 257–286. CiteSeerX 10.1.1.381.3454. Дои:10.1109/5.18626. [1]
- ^ Ньюберг, Л. (2009). «Статистика ошибок скрытой модели Маркова и результатов скрытой модели Больцмана». BMC Биоинформатика. 10: 212. Дои:10.1186/1471-2105-10-212. ЧВК 2722652. PMID 19589158.
- ^ Сипос, И. Роберт. Параллельная стратифицированная выборка MCMC AR-HMM для прогнозирования стохастических временных рядов. В: Труды 4-й Международной конференции по методам стохастического моделирования и анализа данных с семинаром по демографии (SMTDA2016), стр. 295-306. Валлетта, 2016. PDF
- ^ Chatzis, Sotirios P .; Космопулос, Димитриос И. (2011). «Вариационная байесовская методология для скрытых марковских моделей с использованием смесей Стьюдента» (PDF). Распознавание образов. 44 (2): 295–306. CiteSeerX 10.1.1.629.6275. Дои:10.1016 / j.patcog.2010.09.001.
- ^ Сипос, И. Роберт; Сеффер, Аттила; Левендовски, Янош (2016). «Параллельная оптимизация разреженных портфелей с помощью AR-HMM». Вычислительная экономика. 49 (4): 563–578. Дои:10.1007 / s10614-016-9579-у. S2CID 61882456.
- ^ Петропулос, Анастасиос; Chatzis, Sotirios P .; Ксантопулос, Стилианос (2016). «Новая корпоративная система кредитных рейтингов, основанная на скрытых марковских моделях Студента». Экспертные системы с приложениями. 53: 87–105. Дои:10.1016 / j.eswa.2016.01.015.
- ^ НИКОЛАЙ, КРИСТОФЕР (2013). "РЕШЕНИЕ КИНЕТИКИ ИОННЫХ КАНАЛОВ С ПОМОЩЬЮ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ QuB". Биофизические обзоры и письма. 8 (3n04): 191–211. Дои:10.1142 / S1793048013300053.
- ^ Домингос, Педро (2015). Главный алгоритм: как поиски совершенной обучающей машины переделают наш мир. Основные книги. п.37. ISBN 9780465061921.
- ^ Stigler, J .; Ziegler, F .; Gieseke, A .; Gebhardt, J.C.M .; Риф, М. (2011). "Сложная сворачивающаяся сеть отдельных молекул кальмодулина". Наука. 334 (6055): 512–516. Bibcode:2011Наука ... 334..512С. Дои:10.1126 / science.1207598. PMID 22034433. S2CID 5502662.
- ^ Blasiak, S .; Рангвала, Х. (2011). "Скрытый вариант марковской модели для классификации последовательностей". Труды IJCAI - международная совместная конференция по искусственному интеллекту. 22: 1192.
- ^ Wong, W .; Штамп, М. (2006). «Охота за метаморфическими машинами». Журнал компьютерной вирусологии. 2 (3): 211–229. Дои:10.1007 / s11416-006-0028-7. S2CID 8116065.
- ^ Wong, K. -C .; Чан, Т. -М .; Peng, C .; Li, Y .; Чжан, З. (2013). «Выявление мотивов ДНК с помощью распространения убеждений». Исследования нуклеиновых кислот. 41 (16): e153. Дои:10.1093 / nar / gkt574. ЧВК 3763557. PMID 23814189.
- ^ Шах, Шалин; Дубей, Абхишек К .; Рейф, Джон (17 мая 2019 г.). «Улучшенное оптическое мультиплексирование с временными штрих-кодами ДНК». Синтетическая биология ACS. 8 (5): 1100–1111. Дои:10.1021 / acssynbio.9b00010. PMID 30951289.
- ^ Шах, Шалин; Дубей, Абхишек К .; Рейф, Джон (2019-04-10). «Программирование временных штрих-кодов ДНК для снятия отпечатков пальцев с одной молекулы». Нано буквы. 19 (4): 2668–2673. Bibcode:2019NanoL..19.2668S. Дои:10.1021 / acs.nanolett.9b00590. ISSN 1530-6984. PMID 30896178.
- ^ «ChromHMM: открытие и характеристика состояния хроматина». compbio.mit.edu. Получено 2018-08-01.
- ^ Эль Зарви, Фераз (май 2011 г.). «Моделирование и прогнозирование эволюции предпочтений во времени: скрытая марковская модель поведения во время путешествия». arXiv:1707.09133 [stat.AP].
- ^ Морф, Х. (февраль 1998 г.). «Стохастическая двухуровневая модель солнечного излучения (STSIM)». Солнечная энергия. 62 (2): 101–112. Bibcode:1998SoEn ... 62..101M. Дои:10.1016 / S0038-092X (98) 00004-8.
- ^ Munkhammar, J .; Виден, Дж. (Август 2018 г.). "Подход смеси распределения вероятностей цепи Маркова к индексу ясного неба". Солнечная энергия. 170: 174–183. Bibcode:2018СоЭн..170..174 млн. Дои:10.1016 / j.solener.2018.05.055.
- ^ Munkhammar, J .; Виден, Дж. (Октябрь 2018 г.). "Модель распределения N-состояний смеси марковских цепей индекса ясности". Солнечная энергия. 173: 487–495. Bibcode:2018СоЭн..173..487 млн. Дои:10.1016 / j.solener.2018.07.056.
- ^ Стратонович, Р.Л. (1960). «Условные марковские процессы». Теория вероятностей и ее приложения. 5 (2): 156–178. Дои:10.1137/1105015.
- ^ Baum, L.E .; Петри, Т. (1966). "Статистический вывод для вероятностных функций конечных цепей Маркова". Анналы математической статистики. 37 (6): 1554–1563. Дои:10.1214 / aoms / 1177699147. Получено 28 ноября 2011.
- ^ Baum, L.E .; Игон, Дж. А. (1967). «Неравенство с приложениями к статистическому оцениванию вероятностных функций марковских процессов и к модели для экологии». Бюллетень Американского математического общества. 73 (3): 360. Дои:10.1090 / S0002-9904-1967-11751-8. Zbl 0157.11101.
- ^ Baum, L.E .; Селл, Г. Р. (1968). «Преобразования роста функций на многообразиях». Тихоокеанский математический журнал. 27 (2): 211–227. Дои:10.2140 / pjm.1968.27.211. Получено 28 ноября 2011.
- ^ Баум, Л.; Petrie, T .; Soules, G .; Вайс, Н. (1970). «Техника максимизации, встречающаяся в статистическом анализе вероятностных функций цепей Маркова». Анналы математической статистики. 41 (1): 164–171. Дои:10.1214 / aoms / 1177697196. JSTOR 2239727. МИСТЕР 0287613. Zbl 0188.49603.
- ^ Баум, Л. (1972). "Неравенство и связанный с ним метод максимизации в статистическом оценивании вероятностных функций марковского процесса". Неравенства. 3: 1–8.
- ^ Бейкер, Дж. (1975). «Система ДРАКОН - Обзор». Транзакции IEEE по акустике, речи и обработке сигналов. 23: 24–29. Дои:10.1109 / ТАССП.1975.1162650.
- ^ Jelinek, F .; Bahl, L .; Мерсер, Р. (1975). «Разработка лингвистического статистического декодера для распознавания слитной речи». IEEE Transactions по теории информации. 21 (3): 250. Дои:10.1109 / TIT.1975.1055384.
- ^ Сюэдун Хуанг; М. Джек; Ю. Арики (1990). Скрытые марковские модели для распознавания речи. Издательство Эдинбургского университета. ISBN 978-0-7486-0162-2.
- ^ Сюэдун Хуанг; Алекс Асеро; Сяо-Вуэнь Хон (2001). Разговорная обработка. Прентис Холл. ISBN 978-0-13-022616-7.
- ^ М. Бишоп и Э. Томпсон (1986). «Максимальное правдоподобие выравнивания последовательностей ДНК». Журнал молекулярной биологии. 190 (2): 159–165. Дои:10.1016/0022-2836(86)90289-5. PMID 3641921. (требуется подписка)
- ^ Дурбин, Ричард М.; Эдди, Шон Р.; Крог, Андерс; Митчисон, Грэм (1998), Анализ биологической последовательности: вероятностные модели белков и нуклеиновых кислот (1-е изд.), Кембридж, Нью-Йорк: Издательство Кембриджского университета, Дои:10.2277/0521629713, ISBN 0-521-62971-3, OCLC 593254083
- ^ Гахрамани, Зубин; Джордан, Майкл И. (1997). «Факториальные скрытые марковские модели». Машинное обучение. 29 (2/3): 245–273. Дои:10.1023 / А: 1007425814087.
- ^ Печинский, Войцех (2002). "Чайхнес де Марков Триплет". Comptes Rendus Mathématique. 335 (3): 275–278. Дои:10.1016 / S1631-073X (02) 02462-7.
- ^ Печинский, Войцех (2007). «Мультисенсорные триплетные цепи Маркова и теория доказательств». Международный журнал приблизительных рассуждений. 45: 1–16. Дои:10.1016 / j.ijar.2006.05.001.
- ^ Boudaren et al., М. Ю. Боударен, Э. Монфрини, В. Печински и А. Айсани, Слияние мультисенсорных сигналов Демпстера-Шафера в нестационарном марковском контексте, Журнал EURASIP по достижениям в обработке сигналов, № 134, 2012.
- ^ Lanchantin et al., П. Ланчантин и В. Печински, Неконтролируемое восстановление скрытой нестационарной цепи Маркова с использованием доказательных априорных значений, IEEE Transactions on Signal Processing, Vol. 53, No. 8, pp. 3091-3098, 2005.
- ^ Boudaren et al., M. Y. Boudaren, E. Monfrini и W. Pieczynski, Неконтролируемая сегментация случайных дискретных данных, скрытых распределениями шума переключения, IEEE Signal Processing Letters, Vol. 19, No. 10, pp. 619-622, октябрь 2012 г.
- ^ Сотириос П. Хатзис, Димитриос Космопулос, «Визуальное распознавание рабочего процесса с использованием вариационного байесовского подхода к многопотоковым слитным скрытым марковским моделям», IEEE Transactions on Circuits and Systems for Video Technology, vol. 22, нет. 7, pp. 1076-1086, июль 2012 г. [2]
- ^ Chatzis, Sotirios P .; Демирис, Яннис (2012). "Нестационарная скрытая марковская модель, управляемая пластом". Распознавание образов. 45 (11): 3985–3996. Дои:10.1016 / j.patcog.2012.04.018. HDL:10044/1/12611.
- ^ М. Лукошевичюс, Х. Йегер (2009) Подходы с использованием резервуарных вычислений к повторяющемуся обучению нейронной сети, Computer Science Review 3: 127–149.
- ^ Виггинс, Л. М. (1973). Панельный анализ: модели скрытой вероятности для процессов отношения и поведения. Амстердам: Эльзевир.
- ^ Bartolucci, F .; Farcomeni, A .; Пеннони, Ф. (2013). Скрытые марковские модели для продольных данных. Бока-Ратон: Чепмен и Холл / CRC. ISBN 978-14-3981-708-7.
внешняя ссылка
Викискладе есть медиафайлы по теме Скрытая марковская модель. |
Концепции
- Тейф, В. Б .; Риппе, К. (2010). «Статистико-механические решетчатые модели связывания белок-ДНК в хроматине». J. Phys .: Condens. Иметь значение. 22 (41): 414105. arXiv:1004.5514. Bibcode:2010JPCM ... 22O4105T. Дои:10.1088/0953-8984/22/41/414105. PMID 21386588. S2CID 103345.
- Показательное введение в скрытые марковские модели Марк Стэмп, Государственный университет Сан-Хосе.
- Подгонка HMM к максимальному ожиданию - полный вывод
- Пошаговое руководство по HMM (Университет Лидса)
- Скрытые марковские модели (экспозиция по основам математики)
- Скрытые марковские модели (Нарада Варакагода)
- Скрытые марковские модели: основы и приложения Часть 1, Часть 2 (В. Петрушина)
- Лекция Джейсона Эйснера по электронной таблице, видео и интерактивная таблица