UPDATE: 2024-01-03 16:37:48.570042
このノートは「StanとRでベイズ統計モデリング」の内容を写経することで、ベイズ統計への理解を深めていくために作成している。
基本的には気になった部分を写経しながら、ところどころ自分用の補足をメモすることで、「StanとRでベイズ統計モデリング」を読み進めるための自分用の補足資料になることを目指す。私の解釈がおかしく、メモが誤っている場合があるので注意。
今回は第10章「収束しない場合の対処法」の後半、10.2.4の分散共分散行列のチャプターから写経していく。
チャプター8の階層モデルを多変量正規分布、共分散行列を使って拡張する。このモデルのメカニズムとしては、\(a[1],a[2],a[3],a[4]\)を「すべての会社で共通の全体平均」と「会社差を表す項」に分解する。会社差は平均0標準偏差\(\sigma_{a}\)の正規分布から生成されると考える。\(b[1],b[2],b[3],b[4]\)も同様で、年齢に伴う昇給額は「すべての会社で共通の全体平均」と「会社差を表す項」に分解する。
このような制約を入れることで、新卒時点の年収の会社差のばらつきは\(\sigma_{a}\)ぐらいと解釈できるようになる。\(\sigma_{a}\)には無情報事前分布を仮定する。このように階層的に事前分布が設定されているため階層モデルと呼ばれる。
\[ \begin{eqnarray} Y[n] &\sim& Normal(a[KID[n]] + b[KID[n]]X[n], \sigma_{Y}) \\ a[k] &\sim& Normal(a_{全体平均}, \sigma_{a}) \\ b[k] &\sim& Normal(b_{全体平均}, \sigma_{b}) \\ \end{eqnarray} \]
上記モデルでは、\(a[k],b[k]\)は独立した正規分布に従うと仮定されている。ただ、モデルのメカニズムとして、新卒年収が高いと年齢による昇給額も高くなる高くなりやすい場合もある。\(a[k]\)が高いと\(b[k]\)も高い、\(a[k]\)が高いと\(b[k]\)が低い、となるようような相関関係をモデル化したい。このようなケースで多変量正規分布が役立つ。
\[ \begin{eqnarray} Y[n] &\sim& Normal(a[KID[n]] + b[KID[n]]X[n], \sigma_{Y}) \\ \begin{pmatrix} a[k] \\ b[k] \\ \end{pmatrix} &\sim& MultiNormal \left( \begin{array}{c} \left( \begin{array}{c} a_{全体平均} \\ b_{全体平均} \\ \end{array} \right) \end{array},\Sigma \right) \end{eqnarray} \]
一般に、多変量正規分布は下記の通り表現される。この分布は\(\overrightarrow{y}\)の各要素\(y_{1},...,y_{n}\)が従う同時分布になっている。\(\Sigma\)は共分散行列で、\(|\Sigma|\)は行列式である。共分散行列には無情報事前分布を利用する。
\[ MultiNormal(\overrightarrow{y}|\overrightarrow{\mu},\Sigma) = \frac{1}{(2\pi)^{\frac{K}{2}}}\frac{1}{\sqrt{|\Sigma|}} \exp \left( -\frac{1}{2} (\overrightarrow{y}-\overrightarrow{\mu})\Sigma^{-1}(\overrightarrow{y}-\overrightarrow{\mu}) \right) \]
\(\Sigma\)の対角成分以外が0である場合、互いに独立な\(K\)個の正規分布から生成されたのと同じである。2つの要素しかない場合、\(\overrightarrow{y}=(a,b)^{T}\)を考えるとわかり良い。\(\mu_{a},\sigma_{a}\)を\(a\)の平均、標準偏差、\(\mu_{b},\sigma_{b}\)を\(b\)の平均、標準偏差とする。\(a,b\)の相関を\(\rho\)とする。
\[ \overrightarrow{\mu} = \left( \begin{array}{c} \mu_{a} \\ \mu_{b} \\ \end{array} \right) , \Sigma = \begin{pmatrix} \sigma_{a}^{2} & \sigma_{a}\sigma_{b}\rho \\ \sigma_{a}\sigma_{b}\rho & \sigma_{b}^{2} \end{pmatrix} \]
Stanのモデル式は下記の通り。
data {
int N;
int K;
vector[N] X;
vector[N] Y;
int<lower=1, upper=K> KID[N];
}
parameters {
vector[2] ab[K];
vector[2] ab0;
cov_matrix[2] cov;
real<lower=0> s_Y;
}
transformed parameters {
vector[K] a;
vector[K] b;
for (k in 1:K) {
a[k] = ab[k,1];
b[k] = ab[k,2];
}
}
model {
ab ~ multi_normal(ab0, cov);
Y ~ normal(a[KID] + b[KID] .* X, s_Y);
}
// forloop版
// model {
// for (k in 1:K) {
// ab[k] ~ multi_normal(ab0, cov);
// }
// for (n in 1:N) {
// Y[n] ~ normal(a[KID[n]] + b[KID[n]] * X[n], s_Y);
// }
// }
ただ、このモデルは収束しない。モデルが複雑でパラメタの制限が少ないのに対し、データが十分ではないことが原因。このような場合、分散共分散行列に弱情報事前分布を設定する。このようなケースでは逆ウィシャート分布が使われることが多い模様。逆ウィシャート分布は逆ガンマ分布の多変量版で、共分散行列の共役事前分布でもある。 逆Wishart分布は、Wishart分布に従う行列の逆行列が従う分布です。行列のサイズを\(K\)としたとき、対称正定値行列\(\Sigma\)の逆ウィシャート分布は、自由度パラメタ\(\nu \in (K-1, \infty)\)と対称正定値行列のパラメタ\(S \in \mathbb{ R }^{K×K}\)を使って下記のように表現される。
\[ p(\mathbf {\Sigma} | \nu, S) = \frac{1}{2^\frac{\nu K}{2}} \ \frac{1}{\Gamma_K \! \left( \frac{\nu}{2} \right)} \ \left| S \right|^\frac{\nu}{2} \ \left| \mathbf {\Sigma} \right|^{-\frac{\nu + K + 1}{2}} \ \exp \! \left( - \frac{1}{2} \ \text{tr} (S \mathbf {\Sigma}^{-1}) \right) \]
ただ、逆ウィシャート分布はパラメタの設定が難しく、解決策として、標準偏差と相関から分散共分散行列を構成する方法がある。こうすることで、\(\sigma_{a},\sigma_{b}\)に事前分布を設定しやすく、\(\sigma_{a},\sigma_{b},\rho\)から分散共分散行列\(\Sigma\)を構成する。
\[ \begin{eqnarray} Y[n] &\sim& Normal(a[KID[n]] + b[KID[n]]X[n], \sigma_{Y}) \\ \begin{pmatrix} a[k] \\ b[k] \\ \end{pmatrix} &\sim& MultiNormal \left( \begin{array}{c} \left( \begin{array}{c} a_{全体平均} \\ b_{全体平均} \\ \end{array} \right) \end{array}, \begin{pmatrix} \sigma_{a}^{2} & \sigma_{a}\sigma_{b}\rho \\ \sigma_{a}\sigma_{b}\rho & \sigma_{b}^{2} \end{pmatrix} \right) \\ a_{全体平均} &\sim& Normal(400,200) \\ b_{全体平均} &\sim& Normal(15,15) \\ \sigma_{a} &\sim& Student\_t^{+}(4,0,200) \\ \sigma_{b} &\sim& Student\_t^{+}(4,0,20) \\ \end{eqnarray} \]
事前分布を利用するにあたり、下記の通り仮定を置いている。
data {
int N;
int K;
vector[N] X;
vector[N] Y;
int<lower=1, upper=K> KID[N];
}
parameters {
vector[2] ab[K];
vector[2] ab0;
real<lower=0> s_a;
real<lower=0> s_b;
real<lower=-1, upper=1> rho;
real<lower=0> s_Y;
}
transformed parameters {
vector[K] a;
vector[K] b;
matrix[2,2] cov;
for (k in 1:K) {
a[k] = ab[k,1];
b[k] = ab[k,2];
}
// 共分散分散行列
cov[1,1] = square(s_a); cov[1,2] = s_a*s_b*rho;
cov[2,1] = s_a*s_b*rho; cov[2,2] = square(s_b);
}
model {
ab0[1] ~ normal(400, 200);
ab0[2] ~ normal(15, 15);
s_a ~ student_t(4, 0, 200);
s_b ~ student_t(4, 0, 20);
ab ~ multi_normal(ab0, cov);
Y ~ normal(a[KID] + b[KID] .* X, s_Y);
}
library(dplyr)
library(rstan)
library(ggplot2)
options(max.print = 999999)
rstan_options(auto_write=TRUE)
options(mc.cores=parallel::detectCores())
library(rstan)
d <- read.csv('https://raw.githubusercontent.com/MatsuuraKentaro/RStanBook/master/chap08/input/data-salary-2.txt')
N <- nrow(d)
K <- 4
data <- list(N=N, K=K, X=d$X, Y=d$Y, KID=d$KID)
モデルは下記の通りである。
data {
int N;
int K;
vector[N] X;
vector[N] Y;
int<lower=1, upper=K> KID[N];
}
parameters {
vector[2] ab[K];
vector[2] ab0;
real<lower=0> s_a;
real<lower=0> s_b;
real<lower=-1, upper=1> rho;
real<lower=0> s_Y;
}
transformed parameters {
vector[K] a;
vector[K] b;
matrix[2,2] cov;
for (k in 1:K) {
a[k] = ab[k,1];
b[k] = ab[k,2];
}
// Σを構成
cov[1,1] = square(s_a); cov[1,2] = s_a*s_b*rho;
cov[2,1] = s_a*s_b*rho; cov[2,2] = square(s_b);
}
model {
// 事前分布
ab0[1] ~ normal(400, 200);
ab0[2] ~ normal(15, 15);
s_a ~ student_t(4, 0, 200);
s_b ~ student_t(4, 0, 20);
ab ~ multi_normal(ab0, cov);
// `.*`は要素ごとの積
Y ~ normal(a[KID] + b[KID] .* X, s_Y);
}
// forloop版
// model {
// s_a ~ student_t(4, 0, 200);
// s_b ~ student_t(4, 0, 20);
// ab0[1] ~ normal(400, 200);
// ab0[2] ~ normal(15, 15);
//
// for (k in 1:K) {
// ab[k] ~ multi_normal(ab0, cov);
// }
//
// for (n in 1:N) {
// Y[n] ~ normal(a[KID[n]] + b[KID[n]] * X[n], s_Y);
// }
// }
ここでは、stan_model()
関数で最初にコンパイルしておいてから、
model106 <- stan_model('note_ahirubayes13-106.stan')
sampling()
関数でサンプリングする。
fit <- sampling(object = model106, data = data, seed = 1989)
推定結果は下記の通り。
print(fit, prob = c(0.025, 0.5, 0.975), digits_summary = 1)
## Inference for Stan model: anon_model.
## 4 chains, each with iter=2000; warmup=1000; thin=1;
## post-warmup draws per chain=1000, total post-warmup draws=4000.
##
## mean se_mean sd 2.5% 50% 97.5% n_eff Rhat
## ab[1,1] 383.3 0.4 15.0 353.8 383.1 413.2 1814 1
## ab[1,2] 7.7 0.0 0.9 5.9 7.7 9.6 1736 1
## ab[2,1] 334.9 0.4 18.0 300.6 334.6 370.8 2394 1
## ab[2,2] 19.4 0.0 1.3 16.7 19.4 22.0 2424 1
## ab[3,1] 330.2 0.9 32.8 262.8 332.0 390.5 1448 1
## ab[3,2] 11.7 0.0 1.6 8.7 11.6 15.0 1577 1
## ab[4,1] 438.9 3.5 110.7 298.7 406.4 713.8 1028 1
## ab[4,2] 11.5 0.1 4.5 0.3 12.7 17.4 1037 1
## ab0[1] 370.1 1.3 57.5 264.5 363.8 507.2 2054 1
## ab0[2] 12.7 0.1 4.3 4.2 12.7 22.1 1721 1
## s_a 91.3 2.3 74.0 12.5 70.2 282.5 1042 1
## s_b 8.4 0.1 4.6 3.3 7.3 20.8 1781 1
## rho -0.3 0.0 0.5 -0.9 -0.4 0.7 2057 1
## s_Y 28.8 0.1 3.9 22.3 28.5 37.7 1340 1
## a[1] 383.3 0.4 15.0 353.8 383.1 413.2 1814 1
## a[2] 334.9 0.4 18.0 300.6 334.6 370.8 2394 1
## a[3] 330.2 0.9 32.8 262.8 332.0 390.5 1448 1
## a[4] 438.9 3.5 110.7 298.7 406.4 713.8 1028 1
## b[1] 7.7 0.0 0.9 5.9 7.7 9.6 1736 1
## b[2] 19.4 0.0 1.3 16.7 19.4 22.0 2424 1
## b[3] 11.7 0.0 1.6 8.7 11.6 15.0 1577 1
## b[4] 11.5 0.1 4.5 0.3 12.7 17.4 1037 1
## cov[1,1] 13810.8 699.1 27249.6 157.2 4927.4 79822.1 1519 1
## cov[1,2] -287.6 17.0 804.7 -2175.2 -129.2 807.9 2245 1
## cov[2,1] -287.6 17.0 804.7 -2175.2 -129.2 807.9 2245 1
## cov[2,2] 92.5 3.0 130.2 10.7 53.3 431.3 1913 1
## lp__ -172.9 0.1 3.2 -180.0 -172.6 -167.4 1079 1
##
## Samples were drawn using NUTS(diag_e) at Wed Jan 3 16:37:53 2024.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).
この方法では、分散共分散行列のサイズが大きくなると、事前分布の設定が煩雑になる。その解決策として、LKJ相関分布を利用する方法がある。詳しくはStanマニュアルを参照。相関行列に対してLKJ相関分布で事前分布を設定し、行列演算から分散共分散行列を作る。
$$ \[\begin{eqnarray} Y[n] &\sim& Normal(a[KID[n]] + b[KID[n]]X[n], \sigma_{Y}) \\ \begin{pmatrix} a[k] \\ b[k] \\ \end{pmatrix} &\sim& MultiNormal\_Cholesky \left( \begin{array}{c} \left( \begin{array}{c} a_{全体平均} \\ b_{全体平均} \\ \end{array} \right) \end{array}, \Sigma_{chol} \right) \\ \Sigma_{chol} &\sim& \begin{pmatrix} \sigma_{a} & 0 \\ 0 & \sigma_{b} \end{pmatrix} \Omega_{chol} \\ a_{全体平均} &\sim& Normal(400,200) \\ b_{全体平均} &\sim& Normal(15,15) \\ \sigma_{a} &\sim& Student\_t^{+}(4,0,200) \\ \sigma_{b} &\sim& Student\_t^{+}(4,0,20) \\ \Omega_{chol} &\sim& LKJcorr\_Cholesky(\nu) \end{eqnarray}\] $$
\(\Sigma_{chol}\)は分散共分散行列もコレスキー因子を表し、\(\Omega_{chol}\)は相関行列のコレスキー因子を表す。MultiNormal_Cholesky分布は、コレスキー因子を引数にとる多変量正規分布。LKJcorr_Cholesky分布は相関行列のコレスキー因子を生成する分布で、\(\Omega_{chol}\)の事前分布である。\(\nu\)はLKJcorr_Cholesky分布のshapeパラメタで1以上の値をとる。1だと一様分布に相当する無情報事前分布となり。2や4などであれば制約の強い相関行列が生成される。
モデルは下記の通りである。
data {
int N;
int K;
vector[N] X;
vector[N] Y;
int<lower=1, upper=K> KID[N];
real Nu;
}
parameters {
vector[2] ab[K];
vector[2] ab0;
cholesky_factor_corr[2] corr_chol;
vector<lower=0>[2] sigma_vec;
real<lower=0> s_Y;
}
transformed parameters {
vector[K] a;
vector[K] b;
cholesky_factor_cov[2] cov_chol;
for (k in 1:K) {
a[k] = ab[k,1];
b[k] = ab[k,2];
}
// 分散共分散行列を構成
cov_chol = diag_pre_multiply(sigma_vec, corr_chol);
}
model {
ab0[1] ~ normal(400, 200);
ab0[2] ~ normal(15, 15);
sigma_vec[1] ~ student_t(4, 0, 200);
sigma_vec[2] ~ student_t(4, 0, 20);
corr_chol ~ lkj_corr_cholesky(Nu);
ab ~ multi_normal_cholesky(ab0, cov_chol);
Y ~ normal(a[KID] + b[KID] .* X, s_Y);
}
generated quantities {
matrix[2,2] corr;
matrix[2,2] cov;
// 相関行列のコレスキー因子corr_cholから相関行列corrを算出
corr = multiply_lower_tri_self_transpose(corr_chol);
// 分散共分散行列のコレスキー因子cov_cholから分散共分散行列covを算出
cov = multiply_lower_tri_self_transpose(cov_chol);
}
diag_pre_multiply(vector v, matrix m)
:
diag_matrix(v) * m
を計算し、matrix
型を返すdiag_matrix(vector v)
:
v
の各要素を対角線上に並べた対角行列をmatrix
型で返すmultiply_lower_tri_self_transpose(matrix m)
:
m
の対角成分と下三角成分だけを抜き出した行列L
とすると、LL^t
を計算してmatrix
型で返すここでは、stan_model()
関数で最初にコンパイルしておいてから、
model107 <- stan_model('note_ahirubayes13-107.stan')
sampling()
関数でサンプリングする。
data <- list(N = N, K = K, X = d$X, Y = d$Y, KID = d$KID, Nu = 2)
fit <- sampling(object = model107, data = data, seed = 1989)
推定結果は下記の通り。
print(fit, prob = c(0.025, 0.5, 0.975), digits_summary = 1)
## Inference for Stan model: anon_model.
## 4 chains, each with iter=2000; warmup=1000; thin=1;
## post-warmup draws per chain=1000, total post-warmup draws=4000.
##
## mean se_mean sd 2.5% 50% 97.5% n_eff Rhat
## ab[1,1] 383.1 0.3 15.3 352.7 383.5 413.1 2289 1
## ab[1,2] 7.8 0.0 0.9 5.9 7.8 9.6 2259 1
## ab[2,1] 334.7 0.4 17.8 299.2 334.9 369.8 2123 1
## ab[2,2] 19.4 0.0 1.3 16.8 19.4 22.0 2161 1
## ab[3,1] 328.5 0.8 32.3 264.1 328.5 391.3 1805 1
## ab[3,2] 11.8 0.0 1.6 8.7 11.8 15.0 1845 1
## ab[4,1] 438.3 3.4 105.9 296.9 408.8 711.2 998 1
## ab[4,2] 11.5 0.1 4.3 0.7 12.7 17.4 1008 1
## ab0[1] 371.8 1.5 56.4 269.0 364.3 506.8 1401 1
## ab0[2] 13.0 0.1 4.5 4.0 12.9 22.4 1751 1
## corr_chol[1,1] 1.0 NaN 0.0 1.0 1.0 1.0 NaN NaN
## corr_chol[1,2] 0.0 NaN 0.0 0.0 0.0 0.0 NaN NaN
## corr_chol[2,1] -0.2 0.0 0.4 -0.8 -0.2 0.6 2691 1
## corr_chol[2,2] 0.9 0.0 0.1 0.6 0.9 1.0 2365 1
## sigma_vec[1] 91.0 2.3 72.4 14.2 69.8 276.5 953 1
## sigma_vec[2] 8.6 0.1 5.2 3.2 7.3 21.8 1851 1
## s_Y 28.8 0.1 3.8 22.5 28.4 37.4 2175 1
## a[1] 383.1 0.3 15.3 352.7 383.5 413.1 2289 1
## a[2] 334.7 0.4 17.8 299.2 334.9 369.8 2123 1
## a[3] 328.5 0.8 32.3 264.1 328.5 391.3 1805 1
## a[4] 438.3 3.4 105.9 296.9 408.8 711.2 998 1
## b[1] 7.8 0.0 0.9 5.9 7.8 9.6 2259 1
## b[2] 19.4 0.0 1.3 16.8 19.4 22.0 2161 1
## b[3] 11.8 0.0 1.6 8.7 11.8 15.0 1845 1
## b[4] 11.5 0.1 4.3 0.7 12.7 17.4 1008 1
## cov_chol[1,1] 91.0 2.3 72.4 14.2 69.8 276.5 953 1
## cov_chol[1,2] 0.0 NaN 0.0 0.0 0.0 0.0 NaN NaN
## cov_chol[2,1] -1.6 0.1 4.3 -10.7 -1.5 7.0 2410 1
## cov_chol[2,2] 7.6 0.1 4.7 2.8 6.4 19.2 1980 1
## corr[1,1] 1.0 NaN 0.0 1.0 1.0 1.0 NaN NaN
## corr[1,2] -0.2 0.0 0.4 -0.8 -0.2 0.6 2691 1
## corr[2,1] -0.2 0.0 0.4 -0.8 -0.2 0.6 2691 1
## corr[2,2] 1.0 0.0 0.0 1.0 1.0 1.0 4209 1
## cov[1,1] 13535.2 722.3 26380.2 201.6 4876.7 76467.6 1334 1
## cov[1,2] -166.6 13.5 613.5 -1574.2 -77.7 712.9 2072 1
## cov[2,1] -166.6 13.5 613.5 -1574.2 -77.7 712.9 2072 1
## cov[2,2] 101.0 3.9 191.6 10.2 53.6 474.1 2394 1
## lp__ -172.7 0.1 3.2 -179.6 -172.5 -167.3 1029 1
##
## Samples were drawn using NUTS(diag_e) at Wed Jan 3 16:38:19 2024.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).