В статистика , Байесовская линейная регрессия это подход к линейная регрессия в котором статистический анализ проводится в контексте Байесовский вывод . Когда регрессионная модель ошибки у которых есть нормальное распределение , и если конкретная форма предварительное распространение предполагается, явные результаты доступны для апостериорные вероятностные распределения параметров модели.
Настройка модели
Рассмотрим стандартный линейная регрессия проблема, в которой для я = 1 , … , п {displaystyle i = 1, ldots, n} мы указываем среднее значение условное распределение из y я {displaystyle y_ {i}} учитывая k × 1 {displaystyle k imes 1} предиктор вектор Икс я {displaystyle mathbf {x} _ {i}} :
y я = Икс я Т β + ε я , {displaystyle y_ {i} = mathbf {x} _ {i} ^ {m {T}} {oldsymbol {eta}} + varepsilon _ {i},} где β {displaystyle {oldsymbol {eta}}} это k × 1 {displaystyle k imes 1} вектор, и ε я {displaystyle varepsilon _ {i}} находятся независимый и идентичный нормально распределенный случайные переменные:
ε я ∼ N ( 0 , σ 2 ) . {displaystyle varepsilon _ {i} sim N (0, sigma ^ {2}).} Это соответствует следующему функция правдоподобия :
ρ ( y ∣ Икс , β , σ 2 ) ∝ ( σ 2 ) − п / 2 exp ( − 1 2 σ 2 ( y − Икс β ) Т ( y − Икс β ) ) . {displaystyle ho (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma ^ {2}) propto (sigma ^ {2}) ^ {- n / 2} exp left (- {frac {1 } {2sigma ^ {2}}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ight).} В обыкновенный метод наименьших квадратов решение используется для оценки вектора коэффициентов с помощью Псевдообратная матрица Мура – Пенроуза :
β ^ = ( Икс Т Икс ) − 1 Икс Т y {displaystyle {hat {oldsymbol {eta}}} = (mathbf {X} ^ {m {T}} mathbf {X}) ^ {- 1} mathbf {X} ^ {m {T}} mathbf {y}} где Икс {displaystyle mathbf {X}} это п × k {displaystyle n imes k} матрица дизайна , каждая строка которого является вектором-предиктором Икс я Т {displaystyle mathbf {x} _ {i} ^ {m {T}}} ; и y {displaystyle mathbf {y}} столбец п {displaystyle n} -вектор [ y 1 ⋯ y п ] Т {displaystyle [y_ {1}; cdots; y_ {n}] ^ {m {T}}} .
Это частотник подход, и он предполагает, что существует достаточно измерений, чтобы сказать что-то значимое о β {displaystyle {oldsymbol {eta}}} . в Байесовский подход, данные дополняются дополнительной информацией в виде априорное распределение вероятностей . Априорное мнение о параметрах сочетается с функцией правдоподобия данных в соответствии с Теорема Байеса дать последующее убеждение о параметрах β {displaystyle {oldsymbol {eta}}} и σ {displaystyle sigma} . Предварительная версия может принимать различные функциональные формы в зависимости от домена и доступной информации. априори .
С сопряженными приорами
Сопряженное предварительное распределение Для произвольного априорного распределения не может быть аналитического решения для апостериорное распределение . В этом разделе мы рассмотрим так называемый сопряженный предшествующий для которого апостериорное распределение может быть получено аналитически.
Предыдущий ρ ( β , σ 2 ) {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2})} является сопрягать к этой функции правдоподобия, если она имеет такую же функциональную форму относительно β {displaystyle {oldsymbol {eta}}} и σ {displaystyle sigma} . Поскольку логарифмическое правдоподобие квадратично по β {displaystyle {oldsymbol {eta}}} , логарифм правдоподобия переписывается таким образом, что вероятность становится нормальной в ( β − β ^ ) {displaystyle ({oldsymbol {eta}} - {hat {oldsymbol {eta}}})} . Написать
( y − Икс β ) Т ( y − Икс β ) = ( y − Икс β ^ ) Т ( y − Икс β ^ ) + ( β − β ^ ) Т ( Икс Т Икс ) ( β − β ^ ) . {displaystyle (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) = (mathbf {y} - mathbf {X} {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {y} -mathbf {X} {hat {oldsymbol {eta}}}) + ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X}) ({oldsymbol {eta}} - {hat {oldsymbol {eta}}) }).} Вероятность теперь переписывается как
ρ ( y | Икс , β , σ 2 ) ∝ ( σ 2 ) − v 2 exp ( − v s 2 2 σ 2 ) ( σ 2 ) − п − v 2 exp ( − 1 2 σ 2 ( β − β ^ ) Т ( Икс Т Икс ) ( β − β ^ ) ) , {displaystyle ho (mathbf {y} | mathbf {X}, {oldsymbol {eta}}, sigma ^ {2}) propto (sigma ^ {2}) ^ {- {frac {v} {2}}} exp left (- {frac {vs ^ {2}} {2 {sigma} ^ {2}}} ight) (sigma ^ {2}) ^ {- {frac {nv} {2}}} exp left (- {frac {1} {2 {сигма} ^ {2}}} ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {X} ^ {m {T} } mathbf {X}) ({oldsymbol {eta}} - {hat {oldsymbol {eta}}}) ight),} где
v s 2 = ( y − Икс β ^ ) Т ( y − Икс β ^ ) и v = п − k , {displaystyle vs ^ {2} = (mathbf {y} -mathbf {X} {hat {oldsymbol {eta}}}) ^ {m {T}} (mathbf {y} -mathbf {X} {hat {oldsymbol { eta}}}) quad {ext {and}} quad v = nk,} где k {displaystyle k} - количество коэффициентов регрессии.
Это предполагает форму для приора:
ρ ( β , σ 2 ) = ρ ( σ 2 ) ρ ( β ∣ σ 2 ) , {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2}) = ho (sigma ^ {2}) ho ({oldsymbol {eta}} mid sigma ^ {2}),} где ρ ( σ 2 ) {displaystyle ho (сигма ^ {2})} является обратное гамма-распределение
ρ ( σ 2 ) ∝ ( σ 2 ) − v 0 2 − 1 exp ( − v 0 s 0 2 2 σ 2 ) . {displaystyle ho (sigma ^ {2}) propto (sigma ^ {2}) ^ {- {frac {v_ {0}} {2}} - 1} exp left (- {frac {v_ {0} s_ {0 } ^ {2}} {2sigma ^ {2}}} ight).} В обозначениях, введенных в обратное гамма-распределение статья, это плотность Инв-Гамма ( а 0 , б 0 ) {displaystyle {ext {Inv-Gamma}} (a_ {0}, b_ {0})} распространение с а 0 = v 0 2 {displaystyle a_ {0} = {frac {v_ {0}} {2}}} и б 0 = 1 2 v 0 s 0 2 {displaystyle b_ {0} = {frac {1} {2}} v_ {0} s_ {0} ^ {2}} с участием v 0 {displaystyle v_ {0}} и s 0 2 {displaystyle s_ {0} ^ {2}} как предыдущие значения v {displaystyle v} и s 2 {displaystyle s ^ {2}} соответственно. Эквивалентно его также можно описать как масштабированное обратное распределение хи-квадрат , Масштаб-ин- χ 2 ( v 0 , s 0 2 ) . {displaystyle {ext {Scale-inv -}} чи ^ {2} (v_ {0}, s_ {0} ^ {2}).}
Далее условная априорная плотность ρ ( β | σ 2 ) {displaystyle ho ({oldsymbol {eta}} | сигма ^ {2})} это нормальное распределение ,
ρ ( β ∣ σ 2 ) ∝ ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ 0 ) Т Λ 0 ( β − μ 0 ) ) . {displaystyle ho ({oldsymbol {eta}} mid sigma ^ {2}) propto (sigma ^ {2}) ^ {- k / 2} exp left (- {frac {1} {2sigma ^ {2}}} ( {oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) ^ {m {T}} mathbf {Lambda} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0 }) ight).} В обозначениях нормальное распределение , условное априорное распределение N ( μ 0 , σ 2 Λ 0 − 1 ) . {displaystyle {mathcal {N}} left ({oldsymbol {mu}} _ {0}, sigma ^ {2} mathbf {Lambda} _ {0} ^ {- 1} ight).}
Заднее распространение С указанием предыдущего момента апостериорное распределение может быть выражено как
ρ ( β , σ 2 ∣ y , Икс ) ∝ ρ ( y ∣ Икс , β , σ 2 ) ρ ( β ∣ σ 2 ) ρ ( σ 2 ) ∝ ( σ 2 ) − п / 2 exp ( − 1 2 σ 2 ( y − Икс β ) Т ( y − Икс β ) ) ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ 0 ) Т Λ 0 ( β − μ 0 ) ) ( σ 2 ) − ( а 0 + 1 ) exp ( − б 0 σ 2 ) {displaystyle {egin {align} ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) и propto ho (mathbf {y} mid mathbf {X}, {oldsymbol {eta}) }, sigma ^ {2}) ho ({oldsymbol {eta}} mid sigma ^ {2}) ho (sigma ^ {2}) & propto (sigma ^ {2}) ^ {- n / 2} exp left ( - {frac {1} {2 {sigma} ^ {2}}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X } {oldsymbol {eta}}) ight) (sigma ^ {2}) ^ {- k / 2} exp left (- {frac {1} {2sigma ^ {2}}} ({oldsymbol {eta}} - { oldsymbol {mu}} _ {0}) ^ {m {T}} {oldsymbol {Lambda}} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) ight) (сигма ^ {2}) ^ {- (a_ {0} +1)} exp left (- {frac {b_ {0}} {sigma ^ {2}}} ight) end {выровнено}}} С некоторой переделкой,[1] апостериор можно переписать так, чтобы апостериорное среднее μ п {displaystyle {oldsymbol {mu}} _ {n}} вектора параметров β {displaystyle {oldsymbol {eta}}} можно выразить через оценку наименьших квадратов β ^ {displaystyle {hat {oldsymbol {eta}}}} и априорное среднее μ 0 {displaystyle {oldsymbol {mu}} _ {0}} , с силой априорной, указанной в матрице априорной точности Λ 0 {displaystyle {oldsymbol {Lambda}} _ {0}}
μ п = ( Икс Т Икс + Λ 0 ) − 1 ( Икс Т Икс β ^ + Λ 0 μ 0 ) . {displaystyle {oldsymbol {mu}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ^ {- 1} (mathbf {X } ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}} + {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}).} Чтобы оправдать это μ п {displaystyle {oldsymbol {mu}} _ {n}} действительно является апостериорным средним, квадратичные члены в экспоненте могут быть переставлены как квадратичная форма в β − μ п {displaystyle {oldsymbol {eta}} - {oldsymbol {mu}} _ {n}} .[2]
( y − Икс β ) Т ( y − Икс β ) + ( β − μ 0 ) Т Λ 0 ( β − μ 0 ) = ( β − μ п ) Т ( Икс Т Икс + Λ 0 ) ( β − μ п ) + y Т y − μ п Т ( Икс Т Икс + Λ 0 ) μ п + μ 0 Т Λ 0 μ 0 . {displaystyle (mathbf {y} -mathbf {X} {oldsymbol {eta}}) ^ {m {T}} (mathbf {y} -mathbf {X} {oldsymbol {eta}}) + ({oldsymbol {eta} } - {oldsymbol {mu}} _ {0}) ^ {m {T}} {oldsymbol {Lambda}} _ {0} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {0}) = ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) + mathbf {y} ^ {m {T}} mathbf {y} - {oldsymbol {mu}} _ {n} ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) {oldsymbol {mu}} _ {n} + {oldsymbol {mu }} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}.} Теперь апостериор можно выразить как нормальное распределение раз и обратное гамма-распределение :
ρ ( β , σ 2 ∣ y , Икс ) ∝ ( σ 2 ) − k / 2 exp ( − 1 2 σ 2 ( β − μ п ) Т ( Икс Т Икс + Λ 0 ) ( β − μ п ) ) ( σ 2 ) − п + 2 а 0 2 − 1 exp ( − 2 б 0 + y Т y − μ п Т ( Икс Т Икс + Λ 0 ) μ п + μ 0 Т Λ 0 μ 0 2 σ 2 ) . {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) propto (sigma ^ {2}) ^ {- k / 2} exp left (- {frac {1 } {2 {сигма} ^ {2}}} ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + mathbf {Lambda} _ {0}) ({oldsymbol {eta}} - {oldsymbol {mu}} _ {n}) ight) (sigma ^ {2}) ^ {- {frac {n + 2a_ {0}} {2}} - 1} exp осталось (- {frac {2b_ {0} + mathbf {y} ^ {m {T}} mathbf {y} - {oldsymbol {mu}} _ {n} ^ {m {T}} (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) {oldsymbol {mu}} _ {n} + {oldsymbol {mu }} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0}} {2sigma ^ {2}}} ight).} Следовательно, апостериорное распределение можно параметризовать следующим образом.
ρ ( β , σ 2 ∣ y , Икс ) ∝ ρ ( β ∣ σ 2 , y , Икс ) ρ ( σ 2 ∣ y , Икс ) , {displaystyle ho ({oldsymbol {eta}}, sigma ^ {2} mid mathbf {y}, mathbf {X}) propto ho ({oldsymbol {eta}} mid sigma ^ {2}, mathbf {y}, mathbf { X}) ho (sigma ^ {2} mid mathbf {y}, mathbf {X}),} где два фактора соответствуют плотности N ( μ п , σ 2 Λ п − 1 ) {displaystyle {mathcal {N}} left ({oldsymbol {mu}} _ {n}, sigma ^ {2} {oldsymbol {Lambda}} _ {n} ^ {- 1} ight),} и Инв-Гамма ( а п , б п ) {displaystyle {ext {Inv-Gamma}} left (a_ {n}, b_ {n} ight)} распределений, параметры которых задаются
Λ п = ( Икс Т Икс + Λ 0 ) , μ п = ( Λ п ) − 1 ( Икс Т Икс β ^ + Λ 0 μ 0 ) , {displaystyle {oldsymbol {Lambda}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + mathbf {Lambda} _ {0}), quad {oldsymbol {mu}} _ {n } = ({oldsymbol {Lambda}} _ {n}) ^ {- 1} (mathbf {X} ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}} + {oldsymbol {Lambda} } _ {0} {oldsymbol {mu}} _ {0}),} а п = а 0 + п 2 , б п = б 0 + 1 2 ( y Т y + μ 0 Т Λ 0 μ 0 − μ п Т Λ п μ п ) . {displaystyle a_ {n} = a_ {0} + {frac {n} {2}}, qquad b_ {n} = b_ {0} + {frac {1} {2}} (mathbf {y} ^ {m {T}} mathbf {y} + {oldsymbol {mu}} _ {0} ^ {m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0} - {oldsymbol { mu}} _ {n} ^ {m {T}} {oldsymbol {Lambda}} _ {n} {oldsymbol {mu}} _ {n}).} Это можно интерпретировать как байесовское обучение, при котором параметры обновляются в соответствии со следующими уравнениями.
μ п = ( Икс Т Икс + Λ 0 ) − 1 ( Λ 0 μ 0 + Икс Т Икс β ^ ) , {displaystyle {oldsymbol {mu}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}) ^ {- 1} ({oldsymbol { Лямбда}} _ {0} {oldsymbol {mu}} _ {0} + mathbf {X} ^ {m {T}} mathbf {X} {hat {oldsymbol {eta}}}),} Λ п = ( Икс Т Икс + Λ 0 ) , {displaystyle {oldsymbol {Lambda}} _ {n} = (mathbf {X} ^ {m {T}} mathbf {X} + {oldsymbol {Lambda}} _ {0}),} а п = а 0 + п 2 , {displaystyle a_ {n} = a_ {0} + {frac {n} {2}},} б п = б 0 + 1 2 ( y Т y + μ 0 Т Λ 0 μ 0 − μ п Т Λ п μ п ) . {displaystyle b_ {n} = b_ {0} + {frac {1} {2}} (mathbf {y} ^ {m {T}} mathbf {y} + {oldsymbol {mu}} _ {0} ^ { m {T}} {oldsymbol {Lambda}} _ {0} {oldsymbol {mu}} _ {0} - {oldsymbol {mu}} _ {n} ^ {m {T}} {oldsymbol {Lambda}} _ {n} {oldsymbol {mu}} _ {n}).} Типовое свидетельство В модельное свидетельство п ( y ∣ м ) {displaystyle p (mathbf {y} mid m)} вероятность того, что данные данной модели м {displaystyle m} . Он также известен как предельная вероятность , и как предварительная прогнозируемая плотность . Здесь модель определяется функцией правдоподобия п ( y ∣ Икс , β , σ ) {displaystyle p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma)} и априорное распределение по параметрам, т.е. п ( β , σ ) {displaystyle p ({oldsymbol {eta}}, sigma)} . Свидетельства модели фиксируют одним числом, насколько хорошо такая модель объясняет наблюдения. Модельное свидетельство модели байесовской линейной регрессии, представленное в этом разделе, можно использовать для сравнения конкурирующих линейных моделей с помощью Сравнение байесовских моделей . Эти модели могут различаться по количеству и значениям переменных-предикторов, а также по своим априорным значениям для параметров модели. Сложность модели уже учтена в свидетельствах модели, поскольку она ограничивает параметры путем интеграции п ( y , β , σ ∣ Икс ) {displaystyle p (mathbf {y}, {oldsymbol {eta}}, sigma mid mathbf {X})} по всем возможным значениям β {displaystyle {oldsymbol {eta}}} и σ {displaystyle sigma} .
п ( y | м ) = ∫ п ( y ∣ Икс , β , σ ) п ( β , σ ) d β d σ {displaystyle p (mathbf {y} | m) = int p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma), p ({oldsymbol {eta}}, sigma), d {oldsymbol {eta}}, dsigma} Этот интеграл можно вычислить аналитически, и решение дается в следующем уравнении.[3]
п ( y ∣ м ) = 1 ( 2 π ) п / 2 Det ( Λ 0 ) Det ( Λ п ) ⋅ б 0 а 0 б п а п ⋅ Γ ( а п ) Γ ( а 0 ) {displaystyle p (mathbf {y} mid m) = {frac {1} {(2pi) ^ {n / 2}}} {sqrt {frac {det ({oldsymbol {Lambda}} _ {0})} {det ({oldsymbol {Lambda}} _ {n})}}} cdot {frac {b_ {0} ^ {a_ {0}}} {b_ {n} ^ {a_ {n}}}} cdot {frac {Gamma (a_ {n})} {Гамма (a_ {0})}}} Вот Γ {displaystyle Gamma} обозначает гамма-функция . Поскольку мы выбрали априорное сопряжение, предельное правдоподобие также можно легко вычислить, оценив следующее равенство для произвольных значений β {displaystyle {oldsymbol {eta}}} и σ {displaystyle sigma} .
п ( y ∣ м ) = п ( β , σ | м ) п ( y ∣ Икс , β , σ , м ) п ( β , σ ∣ y , Икс , м ) {displaystyle p (mathbf {y} mid m) = {frac {p ({oldsymbol {eta}}, sigma | m), p (mathbf {y} mid mathbf {X}, {oldsymbol {eta}}, sigma, m)} {p ({oldsymbol {eta}}, sigma mid mathbf {y}, mathbf {X}, m)}}} Обратите внимание, что это уравнение - не что иное, как перестановка Теорема Байеса . Вставка формул для априорной, вероятностной и апостериорной и упрощение результирующего выражения приводит к аналитическому выражению, приведенному выше.
Другие случаи
В общем, аналитический вывод апостериорного распределения может оказаться невозможным или непрактичным. Однако можно аппроксимировать апостериор приблизительный байесовский вывод метод, такой как Отбор проб Монте-Карло [4] или вариационный байесовский .
Особый случай μ 0 = 0 , Λ 0 = c я {displaystyle {oldsymbol {mu}} _ {0} = 0, mathbf {Lambda} _ {0} = cmathbf {I}} называется регресс гребня .
Аналогичный анализ может быть проведен для общего случая многомерной регрессии, и отчасти это обеспечивает байесовский анализ. оценка ковариационных матриц : увидеть Байесовская многомерная линейная регрессия .
Смотрите также
Заметки
^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) в начале главы о линейных моделях. ^ Промежуточные этапы описаны у Fahrmeir et al. (2009) на странице 188. ^ Промежуточные этапы этого вычисления можно найти у О'Хагана (1994) на странице 257. ^ Карлин и Луи (2008) и Гельман и др. (2003) объясняют, как использовать методы выборки для байесовской линейной регрессии. использованная литература
Бокс, Г. Э. П. ; Тяо, Г. К. (1973). Байесовский вывод в статистическом анализе . Вайли. ISBN 0-471-57428-7 .Карлин, Брэдли П.; Луи, Томас А. (2008). Байесовские методы анализа данных, третье издание . Бока-Ратон, Флорида: Чепмен и Холл / CRC. ISBN 1-58488-697-8 . Fahrmeir, L .; Кнейб, Т .; Ланг, С. (2009). Регресс. Modelle, Methoden und Anwendungen (Второе изд.). Гейдельберг: Springer. Дои :10.1007/978-3-642-01837-4 . ISBN 978-3-642-01836-7 . Форнальски К.В .; Парзыч Г .; Пылак М .; Satuła D .; Добжиньски Л. (2010). «Применение байесовских рассуждений и метода максимальной энтропии к некоторым задачам реконструкции» . Acta Physica Polonica A . 117 (6): 892–899. Дои :10.12693 / APhysPolA.117.892 . Форнальский, Кшиштоф В. (2015). «Приложения робастного байесовского регрессионного анализа». Международный журнал науки о системах общества . 7 (4): 314–333. Дои :10.1504 / IJSSS.2015.073223 . Гельман, Андрей ; Карлин, Джон Б .; Стерн, Хэл С .; Рубин, Дональд Б. (2003). Байесовский анализ данных, второе издание . Бока-Ратон, Флорида: Чепмен и Холл / CRC. ISBN 1-58488-388-X .Гольдштейн, Майкл; Wooff, Дэвид (2007). Линейная статистика, теория и методы Байеса . Вайли. ISBN 978-0-470-01562-9 . Минка, Томас П. (2001) Байесовская линейная регрессия , Веб-страница исследования Microsoft Росси, Питер Э .; Алленби, Грег М .; Маккалок, Роберт (2006). Байесовская статистика и маркетинг . Джон Вили и сыновья. ISBN 0470863676 . О'Хаган, Энтони (1994). Байесовский вывод . Продвинутая теория статистики Кендалла. 2B (Первое изд.). Холстед. ISBN 0-340-52922-9 . Sivia, D.S .; Скиллинг, Дж. (2006). Анализ данных - байесовское руководство (Второе изд.). Издательство Оксфордского университета. Уолтер, Геро; Августин, Томас (2009). «Байесовская линейная регрессия - различные сопряженные модели и их (не) чувствительность к конфликту предшествующих данных» (PDF) . Технический отчет № 069, Департамент статистики, Мюнхенский университет . внешние ссылки