В статистика, Байесовская многомерная линейная регрессия этоБайесовский подход к многомерная линейная регрессия, т.е. линейная регрессия где прогнозируемый результат - это вектор коррелированных случайные переменные а не одну скалярную случайную величину. Более общую трактовку этого подхода можно найти в статье Оценщик MMSE.
Подробности
Рассмотрим проблему регрессии, в которой зависимая переменная быть предсказанным не единственное ценный скаляр, но м-длина вектор коррелированных действительных чисел. Как и в стандартной настройке регрессии, есть п наблюдения, где каждое наблюдение я состоит из k-1объясняющие переменные, сгруппированные в вектор длины k (где фиктивная переменная со значением 1 было добавлено, чтобы учесть коэффициент пересечения). Это можно рассматривать как набор м связанные задачи регрессии для каждого наблюдения я:
где множество ошибок все коррелированы. Точно так же ее можно рассматривать как задачу единственной регрессии, в которой результатом является вектор строки а векторы коэффициентов регрессии располагаются рядом друг с другом следующим образом:
Матрица коэффициентов B это матрица, где векторы коэффициентов для каждой задачи регрессии расположены горизонтально:
Вектор шума за каждое наблюдение яв совокупности является нормальным явлением, поэтому результаты данного наблюдения коррелируют:
Мы можем записать всю проблему регрессии в матричной форме как:
куда Y и E находятся матрицы. В матрица дизайна Икс является матрица с наблюдениями, сложенными вертикально, как в стандартной линейная регрессия настраивать:
Классики, частотники линейный метод наименьших квадратов решение состоит в том, чтобы просто оценить матрицу коэффициентов регрессии с использованием Мур-Пенроуз псевдообратный:
- .
Чтобы получить байесовское решение, нам нужно указать условное правдоподобие, а затем найти подходящее сопряженное априорное значение. Как и в одномерном случае линейная байесовская регрессия, мы обнаружим, что можем указать естественный условно-сопряженный априор (который зависит от масштаба).
Запишем нашу условную вероятность в виде[1]
запись ошибки с точки зрения и дает
Мы ищем естественный сопряженный априор - совместную плотность который имеет ту же функциональную форму, что и вероятность. Поскольку вероятность квадратична по , мы перепишем вероятность, чтобы она была нормальной в (отклонение от классической выборочной оценки).
Используя ту же технику, что и с Байесовская линейная регрессия, мы разлагаем экспоненциальный член, используя матричную форму метода суммы квадратов. Однако здесь нам также потребуется использовать матричное дифференциальное исчисление (Кронекер продукт и векторизация преобразования).
Во-первых, давайте применим сумму квадратов, чтобы получить новое выражение для вероятности:
Мы хотели бы разработать условную форму для априорных точек:
куда является обратное распределение Вишартаи это какая-то форма нормальное распределение в матрице . Это достигается с помощью векторизация преобразование, которое преобразует вероятность из функции матриц к функции векторов .
Написать
Позволять
куда обозначает Кронекер продукт матриц А и B, обобщение внешний продукт который умножает матрица матрица для создания матрица, состоящая из каждой комбинации произведений элементов из двух матриц.
потом
что приведет к вероятности, которая нормальна для .
С вероятностью в более понятной форме, теперь мы можем найти естественное (условное) сопряжение априорной точки.
Сопряженное предварительное распределение
Натуральный конъюгат до использования векторизованной переменной имеет вид:[1]
- ,
куда
и
Заднее распространение
Используя вышеупомянутые априорность и вероятность, апостериорное распределение можно выразить как:[1]
куда .Условия, касающиеся могут быть сгруппированы (с ) с помощью:
- ,
с
- .
Теперь это позволяет нам записать апостериор в более удобной форме:
- .
Это принимает форму обратное распределение Вишарта раз а Матричное нормальное распределение:
и
- .
Параметры этого апостериорного отдела определяются как:
Смотрите также
Рекомендации
- ^ а б c Питер Э. Росси, Грег М. Алленби, Роб Маккалок. Байесовская статистика и маркетинг. John Wiley & Sons, 2012, стр. 32.