В теория достоверности , направление обучения в актуарная наука , то Модель Бюльмана это модель случайных эффектов (или "модель компонентов дисперсии" или иерархическая линейная модель ) используется для определения подходящего премия по группе договоров страхования. Модель названа в честь Ганса Бюльмана, впервые опубликовавшего описание в 1967 году.[1]
Описание модели
Учитывать я риски, которые приводят к случайным убыткам, для которых исторические данные м доступны последние заявки (проиндексированы j ). Премия за я Риск определяется исходя из ожидаемой суммы требований. Ищется линейный оценщик, который минимизирует среднеквадратичную ошибку. Написать
Икс ij для j -я претензия по я -й риск (считаем, что все претензии по я -й риск независимые и одинаково распределенные ) Икс ¯ я = 1 м ∑ j = 1 м Икс я j {displaystyle scriptstyle {ar {X}} _ {i} = {frac {1} {m}} sum _ {j = 1} ^ {m} X_ {ij}} для среднего значения. Θ я {displaystyle Theta _ {i}} - параметр распределения i-го риска м ( ϑ ) = E [ Икс я j | Θ я = ϑ ] {displaystyle m (vartheta) = operatorname {E} left [X_ {ij} | Theta _ {i} = vartheta ight]} Π = E ( м ( ϑ ) | Икс я 1 , Икс я 2 , . . . Икс я м ) {displaystyle Pi = имя оператора {E} (m (vartheta) | X_ {i1}, X_ {i2}, ... X_ {im})} - премия за i-й риск μ = E ( м ( ϑ ) ) {displaystyle mu = operatorname {E} (m (vartheta))} s 2 ( ϑ ) = Вар [ Икс я j | Θ я = ϑ ] {displaystyle s ^ {2} (vartheta) = имя оператора {Var} слева [X_ {ij} | Theta _ {i} = vartheta ight]} σ 2 = E [ s 2 ( ϑ ) ] {displaystyle sigma ^ {2} = operatorname {E} left [s ^ {2} (vartheta) ight]} v 2 = Вар [ м ( ϑ ) ] {displaystyle v ^ {2} = operatorname {Var} left [m (vartheta) ight]} Примечание: м ( ϑ ) {displaystyle m (vartheta)} и s 2 ( ϑ ) {displaystyle s ^ {2} (вартета)} являются функциями случайного параметра ϑ {displaystyle vartheta}
Модель Бюльмана - это решение проблемы:
а р грамм м я п а я 0 , а я 1 , . . . , а я м E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) 2 ] {displaystyle {underset {a_ {i0}, a_ {i1}, ..., a_ {im}} {operatorname {arg, min}}} имя оператора {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -Pi ight) ^ {2} ight]} куда а я 0 + ∑ j = 1 м а я j Икс я j {displaystyle a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij}} оценка премии Π {displaystyle Pi} и arg min представляет значения параметров, которые минимизируют выражение.
Модельное решение
Решение проблемы:
Z Икс ¯ я + ( 1 − Z ) μ {displaystyle Z {ar {X}} _ {i} + (1-Z) mu} куда:
Z = 1 1 + σ 2 v 2 м {displaystyle Z = {frac {1} {1+ {frac {sigma ^ {2}} {v ^ {2} m}}}}} Мы можем дать этому результату интерпретацию, что Z-часть премии основана на имеющейся у нас информации о конкретном риске, а (1-Z) часть основана на имеющейся у нас информации обо всей популяции.
Доказательство Следующее доказательство немного отличается от доказательства в исходной статье. Он также является более общим, поскольку рассматривает все линейные оценки, в то время как первоначальное доказательство рассматривает только оценки, основанные на среднем утверждении.[2]
Лемма. В качестве альтернативы проблему можно сформулировать так: ж = E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − м ( ϑ ) ) 2 ] → мин {displaystyle f = mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (vartheta) ight) ^ {2} ight] o min} Доказательство:
E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − м ( ϑ ) ) 2 ] = E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) 2 ] + E [ ( м ( ϑ ) − Π ) 2 ] + 2 E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) ( м ( ϑ ) − Π ) ] = E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) 2 ] + E [ ( м ( ϑ ) − Π ) 2 ] {displaystyle {egin {выравнивается} mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -m (vartheta) ight) ^ {2}) ight] & = mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -Pi ight) ^ {2} ight] + mathbb {E } left [left (m (vartheta) -Pi ight) ^ {2} ight] + 2mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ { ij} -Pi ight) left (m (vartheta) -Pi ight) ight] & = mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -Pi ight) ^ {2} ight] + mathbb {E} left [left (m (vartheta) -Pi ight) ^ {2} ight] end {align}}} Последнее уравнение следует из того, что
E [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) ( м ( ϑ ) − Π ) ] = E Θ [ E Икс [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) ( м ( ϑ ) − Π ) | Икс я 1 , … , Икс я м ] ] = E Θ [ ( а я 0 + ∑ j = 1 м а я j Икс я j − Π ) [ E Икс [ ( м ( ϑ ) − Π ) | Икс я 1 , … , Икс я м ] ] ] = 0 {displaystyle {egin {align} mathbb {E} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -Pi ight) left (m (vartheta) - Pi ight) ight] & = mathbb {E} _ {Theta} влево [mathbb {E} _ {X} left.left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij } X_ {ij} -Pi ight) (m (vartheta) -Pi) ight | X_ {i1}, ldots, X_ {im} ight] ight] & = mathbb {E} _ {Theta} left [left (a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} -Pi ight) left [mathbb {E} _ {X} left [(m (vartheta) -Pi) | X_ { i1}, ldots, X_ {im} ight] ight] ight] & = 0end {выровнено}}} Мы используем здесь закон полного ожидания и тот факт, что Π = E [ м ( ϑ ) | Икс я 1 , … , Икс я м ] . {displaystyle Pi = mathbb {E} [m (vartheta) | X_ {i1}, ldots, X_ {im}].}
В нашем предыдущем уравнении мы разложили минимизированную функцию на сумму двух выражений. Второе выражение не зависит от параметров, используемых при минимизации. Следовательно, минимизация функции - это то же самое, что минимизация первой части суммы.
Найдем критические точки функции
1 2 ∂ ж ∂ а 01 = E [ а я 0 + ∑ j = 1 м а я j Икс я j − м ( ϑ ) ] = а я 0 + ∑ j = 1 м а я j E ( Икс я j ) − E ( м ( ϑ ) ) = а я 0 + ( ∑ j = 1 м а я j − 1 ) μ {displaystyle {frac {1} {2}} {frac {partial f} {partial a_ {01}}} = mathbb {E} left [a_ {i0} + sum _ {j = 1} ^ {m} a_ { ij} X_ {ij} -m (vartheta) ight] = a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} mathbb {E} (X_ {ij}) - mathbb {E} ( m (vartheta)) = a_ {i0} + left (sum _ {j = 1} ^ {m} a_ {ij} -1ight) mu} а я 0 = ( 1 − ∑ j = 1 м а я j ) μ {displaystyle a_ {i0} = left (1-сумма _ {j = 1} ^ {m} a_ {ij} ight) mu} За k ≠ 0 {displaystyle keq 0} у нас есть:
1 2 ∂ ж ∂ а я k = E [ Икс я k ( а я 0 + ∑ j = 1 м а я j Икс я j − м ( ϑ ) ) ] = E [ Икс я k ] а я 0 + ∑ j = 1 , j ≠ k м а я j E [ Икс я k Икс я j ] + а я k E [ Икс я k 2 ] − E [ Икс я k м ( ϑ ) ] = 0 {displaystyle {frac {1} {2}} {frac {partial f} {partial a_ {ik}}} = mathbb {E} left [X_ {ik} left (a_ {i0} + sum _ {j = 1}) ^ {m} a_ {ij} X_ {ij} -m (vartheta) ight) ight] = mathbb {E} left [X_ {ik} ight] a_ {i0} + sum _ {j = 1, jeq k} ^ {m} a_ {ij} mathbb {E} [X_ {ik} X_ {ij}] + a_ {ik} mathbb {E} [X_ {ik} ^ {2}] - mathbb {E} [X_ {ik} м (вартета)] = 0} Мы можем упростить производную, отметив, что:
E [ Икс я j Икс я k ] = E [ E [ Икс я j Икс я k | ϑ ] ] = E [ cov ( Икс я j Икс я k | ϑ ) + E ( Икс я j | ϑ ) E ( Икс я k | ϑ ) ] = E [ ( м ( ϑ ) ) 2 ] = v 2 + μ 2 E [ Икс я k 2 ] = E [ E [ Икс я k 2 | ϑ ] ] = E [ s 2 ( ϑ ) + ( м ( ϑ ) ) 2 ] = σ 2 + v 2 + μ 2 E [ Икс я k м ( ϑ ) ] = E [ E [ Икс я k м ( ϑ ) | Θ я ] = E [ ( м ( ϑ ) ) 2 ] = v 2 + μ 2 {displaystyle {egin {align} mathbb {E} [X_ {ij} X_ {ik}] & = mathbb {E} left [mathbb {E} [X_ {ij} X_ {ik} | vartheta] ight] = mathbb { E} [{ext {cov}} (X_ {ij} X_ {ik} | vartheta) + mathbb {E} (X_ {ij} | vartheta) mathbb {E} (X_ {ik} | vartheta)] = mathbb { E} [(m (vartheta)) ^ {2}] = v ^ {2} + mu ^ {2} mathbb {E} [X_ {ik} ^ {2}] & = mathbb {E} left [mathbb {E} [X_ {ik} ^ {2} | vartheta] ight] = mathbb {E} [s ^ {2} (vartheta) + (m (vartheta)) ^ {2}] = sigma ^ {2} + v ^ {2} + mu ^ {2} mathbb {E} [X_ {ik} m (vartheta)] & = mathbb {E} [mathbb {E} [X_ {ik} m (vartheta) | Theta _ { i}] = mathbb {E} [(m (vartheta)) ^ {2}] = v ^ {2} + mu ^ {2} конец {выровнено}}} Взяв приведенные выше уравнения и подставив их в производную, мы имеем:
1 2 ∂ ж ∂ а я k = ( 1 − ∑ j = 1 м а я j ) μ 2 + ∑ j = 1 , j ≠ k м а я j ( v 2 + μ 2 ) + а я k ( σ 2 + v 2 + μ 2 ) − ( v 2 + μ 2 ) = а я k σ 2 − ( 1 − ∑ j = 1 м а я j ) v 2 = 0 {displaystyle {frac {1} {2}} {frac {partial f} {partial a_ {ik}}} = left (1-sum _ {j = 1} ^ {m} a_ {ij} ight) mu ^ { 2} + сумма _ {j = 1, jeq k} ^ {m} a_ {ij} (v ^ {2} + mu ^ {2}) + a_ {ik} (sigma ^ {2} + v ^ {2 } + mu ^ {2}) - (v ^ {2} + mu ^ {2}) = a_ {ik} sigma ^ {2} -left (1-сумма _ {j = 1} ^ {m} a_ { ij} ight) v ^ {2} = 0} σ 2 а я k = v 2 ( 1 − ∑ j = 1 м а я j ) {displaystyle sigma ^ {2} a_ {ik} = v ^ {2} left (1-сумма _ {j = 1} ^ {m} a_ {ij} ight)} Правая сторона не зависит от k . Поэтому все а я k {displaystyle a_ {ik}} постоянны
а я 1 = ⋯ = а я м = v 2 σ 2 + м v 2 {displaystyle a_ {i1} = cdots = a_ {im} = {frac {v ^ {2}} {sigma ^ {2} + mv ^ {2}}}} Из решения для а я 0 {displaystyle a_ {i0}} у нас есть
а я 0 = ( 1 − м а я k ) μ = ( 1 − м v 2 σ 2 + м v 2 ) μ {displaystyle a_ {i0} = (1-ma_ {ik}) mu = left (1- {frac {mv ^ {2}} {sigma ^ {2} + mv ^ {2}}} ight) mu} Наконец, лучшая оценка - это
а я 0 + ∑ j = 1 м а я j Икс я j = м v 2 σ 2 + м v 2 Икс я ¯ + ( 1 − м v 2 σ 2 + м v 2 ) μ = Z Икс я ¯ + ( 1 − Z ) μ {displaystyle a_ {i0} + sum _ {j = 1} ^ {m} a_ {ij} X_ {ij} = {frac {mv ^ {2}} {sigma ^ {2} + mv ^ {2}}} {ar {X_ {i}}} + left (1- {frac {mv ^ {2}} {sigma ^ {2} + mv ^ {2}}} ight) mu = Z {ar {X_ {i}} } + (1-Z) mu} Рекомендации
Цитаты Источники Frees, E.W .; Янг, В.Р .; Луо, Ю. (1999). «Интерпретация лонгитюдного анализа данных моделей достоверности». Страхование: математика и экономика . 24 (3): 229–247. Дои :10.1016 / S0167-6687 (98) 00055-9 .