CreatedAt: 2025-04-26 11:17:52
このノートはベイジアンABテストの内容を理解するための必要最低限の基礎知識をまとめたものです。そのため、厳密さはありません。また、細かい部分で誤りが含まれる可能性があります…すいません。
ベイズ統計学について、詳細を正しく理解したい場合は、朝倉書店から出版されているPeter D. Hoff著の標準ベイズ統計学(日本語版)などを参照してください。
まずはベイズの定理のおさらいから。ベイズ統計学は名前の通りベイズの定理と関係がある。ベイズの定理は下記の通り表現される。
\[ p(\theta|y) = \frac{p(y|\theta)p(\theta)}{p(y)} = \frac{p(y|\theta)p(\theta)}{\int p(y|\theta)p(\theta)d\theta} \]
\(y\)をデータ、\(\theta\)をパラメタとする。パラメタ\(\theta\)は、コインの投げの表が出る確率やメルマガのコンバージョン率などをイメージしていればここではOK。積分記号が出てきて難しく見えるが、本質的な部分は下記の部分。\(\propto\)は比例を意味する。
\[ p(\theta|y) \propto p(y|\theta)p(\theta) \] 各部分には名前がついており、\(p(\theta|y)\)を事後分布(posterior)、\(p(y|\theta)\)を尤度(likelihood)、\(p(\theta)\)を事前分布(prior)と呼ぶ。つまり、「事後分布は尤度と事前分布の積に比例する」ということ。\(p(\theta)\)は、\(\theta\)のいろんな値についての確からしさ度合いを意味する。\(\theta\)のように確率的に値が変化するものを確率変数と呼ぶ。
確率分布とは、確率変数がある値となる確率を与える関数のこと。例えば有名な確率分布として、正規分布がある。
\[ f(x)=\dfrac{1}{\sqrt{2\pi\sigma^2}}\exp \left(-\dfrac{(x-\mu)^ 2}{2\sigma^ 2} \right) \]
身長や体重、製品の重量のばらつきなどは正規分布に従うと言われる。「正規分布に従う」とは、値がその正規分布を基に確率的に生成されるということ。日本人男性の身長を例に考える。平均は170、標準偏差5の正規分布に、日本人男性の身長は従う。確率分布は下記のように表現できる。
plot(
seq(150,190,0.01),
dnorm(seq(150,190,0.01), 170, 5),
lwd = 2,
type = "l",
xlab = "Height",
ylab = "Density",
main = "Height of Japanese",
col = "cornflowerblue"
)
つまり、170cm前後が1番確率的にでやすい。連続型確率分布は区間を積分した値が確率となるので、高さがそのまま確率とはならないので注意。
ベイジアンABテストでは、特定の確率分布に従って、乱数を生成することでテストの評価を行う。乱数を生成するとはどういうことか。さきほどの正規分布から値を乱数を生成する例で考えると、170前後がもっとも出やすく、低い確率で150、190もでる可能性がある。下記は、日本人男性を5人生成する作業を5回繰り返している。
n_japanese <- 5
mu <- 170
sigma <- 5
set.seed(1)
r1 <- rnorm(n_japanese, mu, sigma)
set.seed(2)
r2 <- rnorm(n_japanese, mu, sigma)
set.seed(3)
r3 <- rnorm(n_japanese, mu, sigma)
set.seed(4)
r4 <- rnorm(n_japanese, mu, sigma)
set.seed(5)
r5 <- rnorm(n_japanese, mu, sigma)
list(
seed1 = r1,
seed2 = r2,
seed3 = r3,
seed4 = r4,
seed5 = r5
)
## $seed1
## [1] 166.8677 170.9182 165.8219 177.9764 171.6475
##
## $seed2
## [1] 165.5154 170.9242 177.9392 164.3481 169.5987
##
## $seed3
## [1] 165.1903 168.5374 171.2939 164.2393 170.9789
##
## $seed4
## [1] 171.0838 167.2875 174.4557 172.9799 178.1781
##
## $seed5
## [1] 165.7957 176.9218 163.7225 170.3507 178.5572
乱数種(シード)にも注意してほしい。「乱数種」とは、乱数列を生成するときに、その計算の元となる数字で、これが同じであれば、生成される乱数の列は同じになる。つまり、乱数種が異なると結果が異なる。
ベイズの話に戻る。5人にメールを配信し、4人がコンバージョンしたとする。このデータが得られたとして、ベイズの枠組みで事後分布\(p(\theta|y)\)がどのように得られるかを考える。まずは、尤度\(p(y|\theta)\)から考える。尤度\(p(y|\theta)\)は、\(\theta\)の関数で、\(\theta\)が与えられたときに、5人のうち4人(データ\(y\))がコンバージョンする尤もらしさを表す関数。
ここでは、尤度を表現するために2項分布(Binomial distribution)を利用する。2項分布は離散型の確率分布で、確率質量関数は以下のように表される。
成功確率\(\theta\)で起こる独立な事象が\(n\)回のうち\(y\)回起こる確率を表す。
\[ f(y) = \binom{n}{y} \theta^y (1-\theta)^{n-y} \]
5人のうち4人(データ\(y\))がコンバージョンする尤もらしさを表す関数(尤度関数)を可視化すると、下記の通り可視化できる。\(\theta=0.8\)が他の\(\theta\)よりも尤もらしい(=最尤法)ことがわかる。
theta <- seq(0, 1, by = 0.0001)
#likelihood <- theta^4 * (1-theta)^1
y <- 4
n <- 5
likelihood <- dbinom(y, size = n, prob = theta)
# 最尤推定値の計算
mle_p <- theta[which.max(likelihood)]
# グラフの描画
plot(
theta,
likelihood,
type = "l",
lwd = 2,
col = "cornflowerblue",
xlab = "θ",
ylab = "Likelihood",
main = "Likelihood: Binom Dist(Probability Model)"
)
abline(v = mle_p, col = "black", lty = 2)
尤度関数は確率分布ではないので、全域を積分しても1にはならない。
## 0.1666667 with absolute error < 1.9e-15
事後分布\(p(\theta|y)\)を得るためには、事前分布\(p(\theta)\)も必要になる。事前分布はデータ\(y\)が与えられる前の確率分布のこと。ここでは、コンバージョン率の確率分布のこと。
ただ、これを知りたいので、メルマガを送っているので、送る前にはわからない。このようなケースで利用されるのが無情報事前分布(non-informative prior)。何の情報も持っていない確率分布のこと。つまり、何も情報がない状態では、どの場合の確率も同じ\(p(\theta)=const\)と仮定する「理由不十分の原則」に従うことを意味する。
ここでは、無情報事前分布には、ベータ分布(Beta distribution)を利用する。\(0,1\)の区間で定義される連続型の確率分布で、確率密度関数は以下のように表される。
\[ f(\theta) = \frac{\theta^{\alpha - 1} (1 - \theta)^{\beta - 1}}{B(\alpha, \beta)} \propto \theta^{\alpha - 1} (1 - \theta)^{\beta - 1} \]
\(\alpha=1, \beta=1\)のとき、ベータ分布は以下のように可視化される。離散型と異なり、区間を積分した値が確率となるので注意。つまり、高さがそのまま確率を意味しない。
# パラメータの設定
alpha <- 1
beta <- 1
# 0から1までの範囲で確率密度関数を計算
pdf <- dbeta(theta, alpha, beta)
# プロット
plot(
theta,
pdf,
type = "l",
lwd = 2,
xlab = "θ",
ylab = "Density",
main = "Prior: Beta Dist (α=1, β=1)",
col = "red"
)
尤度、事前分布が明らかとなったので、事後分布を算出できる。
\[ \begin{eqnarray} p(\theta|y) &=& \frac{p(y|\theta)p(\theta)} {p(y)} \\ &=& \frac{\binom{n}{y} \theta^y (1-\theta)^{n-y} \frac{\theta^{\alpha - 1} (1 - \theta)^{\beta - 1}}{B(\alpha, \beta)}}{\int_0^1 \binom{n}{y} \theta^y (1-\theta)^{n-y} \frac{\theta^{\alpha - 1} (1 - \theta)^{\beta - 1}}{B(\alpha, \beta)} d \theta}\\ &=& \frac{5 \theta^4 (1-\theta)^{5-4} \frac{\theta^{1 - 1} (1 - \theta)^{1 - 1}}{1}} {0.1666667}\\ &=& 30 \theta^4 (1-\theta)^{1} 1 \\ &=& 30 \theta^4 (1-\theta)^{1} \\ \end{eqnarray} \]
上記の通り、事後分布が得られた。これは\(\theta\)の確率分布であり、コンバージョン率が従う確率分布である。この分布を利用することで、どれくらいのコンバージョン率の確率が最も高いのかなど評価できる。80%くらいの確率が最も高く、20%あたりはほとんど得られないことがわかる。
norm_const <- function(theta) {
dbinom(y, n, theta) * dbeta(theta, 1, 1)
}
inte <- integrate(norm_const, 0, 1)[[1]]
post_no_normalied <- function(theta) (5 * theta^4 * (1-theta)^1)
plot(
theta,
post_no_normalied(theta) / inte,
type = "l",
lwd = 2,
xlab = "θ",
ylab = "Density",
main = "Posterior Dist(Normalized)",
col = "cornflowerblue"
)
正規化済みなので、積分すると事後分布はちゃんと1になる。
## 1 with absolute error < 1.1e-14
さきほどの式は分母、分子にある定数を比例定数とすれば、スッキリする。
\[ \begin{eqnarray} p(\theta|y) &=& \frac{p(y|\theta)p(\theta)} {p(y)} \\ &\propto& \theta^y (1-\theta)^{n-y} \theta^{\alpha - 1} (1 - \theta)^{\beta - 1} \\ &\propto& \theta^4 (1-\theta)^{5-4} \theta^{1 - 1} (1 - \theta)^{1 - 1}\\ &\propto& \theta^4 (1-\theta)^{1} 1 \\ &\propto& \theta^4 (1-\theta)^{1} \\ \end{eqnarray} \]
得られたのは正規化されていない事後分布。正規化されていないので、全域で積分しても1にならない。
plot(
theta,
theta^4 * (1-theta)^1,
type = "l",
col = "gray",
lwd = 2,
xlab = "θ",
ylab = "Density",
main = "Posterior Dist(Not Normalized)",
)
また、正規化された事後分布はベータ分布でも等価に表現できる。
par(mfrow = c(1, 2))
plot(
theta,
post_no_normalied(theta) / inte,
type = "l",
lwd = 2,
xlab = "θ",
ylab = "Density",
main = "Posterior Dist(Normalized)",
col = "cornflowerblue"
)
# Ex: Binom×Beta
# Beta(y+α, n-y+β)
# Beta(4+1, 5-4+1)→Beta(5, 2)
plot(
theta,
dbeta(theta, 5, 2),
type = "l",
col = "tomato",
lwd = 2,
xlab = "θ",
ylab = "Density",
main = "Posterior Dist(Beta)",
)
仮に、事前情報を持っているのであれば、その情報を反映させることができる。下記はコインを3回投げて、3回とも表が出たデータに対して、事前情報として、コインの表が出る確率は0.5が出やすいという考えを反映させたもの。事後分布のピークが0.5に引きずられていることがわかる。これが事前の情報を反映するという直感的なイメージである。
plot(
theta,
theta^3,
type = "l",
ylim = c(0, 3),
lwd = 2,
xlab = "θ",
ylab = "Density",
col = "grey"
)
curve(
dbeta(x, 2, 2),
type = "l",
col = "tomato",
add = TRUE,
lwd = 2
)
## Binomo×Beta
## θ^(3) (1-θ)^(0) θ^(2-1) (1-θ)^(2-1)
## θ^(5-1) (1-θ)^(2-1)
curve(
dbeta(x, 5, 2),
type = "l" ,
col = "cornflowerblue",
lwd = 2,
add = TRUE
)
legend(
0.05,
3,
c("Likelihood", "Prior", "Posterior"),
col = c("grey", "tomato", "cornflowerblue"),
lwd = c(2, 2, 2)
)
ベイジアンABテストは、ABテストのデータから事後分布を計算し、2つ事後分布からモンテカルロシュミレーションを行うことで、テストの有効性を確率的に判断するABテストの方法。大まかな手順は下記の通り。
GoogleのGeminiによると、ベイジアンABテストのメリットは下記の通り。
ベイジアンABテストのデメリット
以下、GoogleのGeminiに対する著者のコメント。著者コメントが必ずしも正しいわけではない。
ベイズが知識がなくても理解できるのは、ここで扱うようケースが解析的に解けるため。ベイズの理解には代数幾何が必要だったり、MCMCで事後分布を推定する場合、HMC法は物理要素強めなので、従来の頻度論と同じで、理解するとなるとどっちもどっちな気がする。
サンプルサイズ設計に関しては、ベイズファクターデザイン分析BFDAによるサンプルサイズ設計とかの話もあるので、どうなんでしょうか。
テスト結果に関しては、p値関数を利用すれば、p値、点推定値、信頼区間、パラメタを可視化できるので、頻度論でも情報は豊富に得られる。
メール配信数が10000人ずつしか確保できず、ABテストを実施したとする。計測したCV数やCV率に、AとBで違いがあるのかを知りたい。
パターン | 配信数 | CV数 | CV率 |
---|---|---|---|
A_Original | 10000 | 30 | 0.0030 |
B_Testing | 10000 | 45 | 0.0045 |
ここでは、どちらのケースも、事前分布はベータ分布の無情報事前分布を利用すると、事後分布は\(Beta(y+\alpha, n-y+\beta)\)となるため、パターンAの場合、
\[ \begin{eqnarray} p(\theta|y) &=& p(y|\theta)p(\theta)/p(y) \\ &\propto& \binom{n}{y} \theta^y (1-\theta)^{n-y} \frac{\theta^{\alpha - 1} (1 - \theta)^{\beta - 1}}{B(\alpha, \beta)}\\ &\propto& \theta^{30} (1-\theta)^{10000-30} 1\\ &\propto& \theta^{30} (1-\theta)^{9970}\\ &\propto& \theta^{31−1} (1-\theta)^{9971-1}\\ \end{eqnarray} \]
となる。パターンBも同様である。
\[ \begin{eqnarray} p(\theta|y) &\propto& \theta^{45} (1-\theta)^{9955}\\ &\propto& \theta^{46-1} (1-\theta)^{9956-1} \end{eqnarray} \]
オリジナル、テストパターンを可視化してみると、事後分布は下記のように可視化できる。
# B_Testing
plot(
theta,
dbeta(theta, 46, 9956),
type = "l",
lwd = 2,
xlab = "θ",
ylab = "Density",
col = "tomato",
xlim = c(0, 0.008),
ylim = c(0, 800),
main = 'Posterior: Pattern A(Gray) & B(Red)'
)
# A_Original
curve(
dbeta(x, 31, 9971),
type = "l" ,
col = "gray",
lwd = 2,
add = TRUE
)
各パターンのCV率の事後分布が得られたので、各分布から乱数を生成し、大小を比較するモンテカルロシュミレーションを行う。大小比較はリフト値を用いる。
リフトは「テストグループ(B)の値がコントロールグループ(A)の値に比べてどれだけ上昇(または低下)したか」を表す指標。
\[ Lift = \frac{(B - A)}{A} \]
1つの乱数を生成し、Aが0.0030(=0.30%)、Bが0.0045(=0.45%)のとき、リフト値は50%上昇したことを示す。
\[ Lift = \frac{(0.0045 - 0.0030)}{0.0030} = 0.5 = 50\% \]
ここでは、乱数種は1000番で、シュミレーションサイズ(=乱数の数)は10000個とする。モンテカルロシュミレーションした結果が下記の通りである。
sim_n <- 10000
set.seed(1000)
a <- rbeta(sim_n, 31, 9971)
b <- rbeta(sim_n, 46, 9956)
lift <- (b-a)/a
hist(
lift,
lwd = 2,
ylab = "Density",
breaks = 50,
main = "Lift: (B-A)/A"
)
abline(v = 0, col = "black", lty = 2)
0より大きいということは、BのテストグループのCV率が大きいことを意味する。また0.5の部分にリフト値のピークが来ているので、テストグループ(B)のCV率は、コントロールグループ(A)のCV率に比べて、50%くらい上昇する可能性が最も高い。150%くらい上昇する可能性はないことはないが、確率は小さい。
ただ、0より小さいということは、コントロールグループ(A)のCV率が高いケースもあるということになるが、BのテストグループのCV率がAのコントロールグループのCV率よりも高い確率を計算すると、96%の確率で高くなることがわかる。
## [1] 0.959
同様にリフトが0.5より大きくなる確率も計算できる。48%の確率で0.5より大きくなることがわかる。
## [1] 0.4864
リフトが扱いづらければ、差分を利用する方法もある。差分なので単純に差を計算しているだけで、0.2%くらいの差が出やすく、
diff <- (b-a)
hist(
diff,
lwd = 2,
ylab = "Density",
breaks = 50,
main = "Diff: B-A"
)
abline(v = 0, col = "black", lty = 2)
テストグループBはオリジナルグループAのCV率に比べて、96%の確率で大きくなる。
## [1] 0.959
ベイジアンABテストでは、計算された事後分布からモンテカルロシュミレーションによってコンバージョン率をランダムに生成し、大小を判断することで、テスト結果の有効性を確率的に評価する。この流れに沿うと、96%の確率でリフトは0より大きくなるので、テストグループのBのほうがCV率は高いと判断できる。
ベイジアンアプローチであれば、「BのCVR」が「AのCVR」よりも大きい確率はどれくらいか?このような疑問に対して、ここまでに説明したような枠組みのもとで回答できる。一方で、頻度論アプローチの統計的仮説検定では回答できない。仮説検定は常に「帰無仮説が棄却されるか否か(CVRの差が0であるか否か)」なので、何パーセントの確率で棄却されるとは言えない。仮説検定でよく見聞きするp値はこのような役割を果たさない。
乱数種によって結果が変わってしまう場合があるので、注意が必要。そもそも乱数種によって結果が変わるのは、Aグループ、Bグループで明確な差がない場合に起こりやすい。例えば、日本人(平均170、標準偏差10)とオランダ人(平均185、標準偏差10)のデータでモンテカルロシュミレーションをしてみると、ほぼ間違いなく、85%の確率でオランダ人のほうが身長が高いことがわかる。
res <- vector(mode = "numeric", 100)
for (i in 1:100) {
a <- rnorm(sim_n, 170, 10)
b <- rnorm(sim_n, 185, 10)
res[i] <- sum((b - a) > 0) / length(a)
}
res
## [1] 0.8529 0.8561 0.8529 0.8567 0.8592 0.8508 0.8566 0.8546 0.8542 0.8544
## [11] 0.8583 0.8522 0.8553 0.8520 0.8558 0.8566 0.8502 0.8557 0.8528 0.8601
## [21] 0.8548 0.8599 0.8534 0.8511 0.8526 0.8543 0.8526 0.8570 0.8544 0.8567
## [31] 0.8579 0.8517 0.8548 0.8513 0.8639 0.8510 0.8557 0.8567 0.8547 0.8578
## [41] 0.8605 0.8544 0.8552 0.8581 0.8594 0.8619 0.8533 0.8558 0.8560 0.8571
## [51] 0.8580 0.8599 0.8507 0.8536 0.8579 0.8507 0.8524 0.8552 0.8508 0.8492
## [61] 0.8528 0.8577 0.8606 0.8576 0.8514 0.8581 0.8519 0.8584 0.8572 0.8601
## [71] 0.8582 0.8568 0.8555 0.8514 0.8487 0.8557 0.8547 0.8602 0.8511 0.8567
## [81] 0.8554 0.8550 0.8545 0.8555 0.8549 0.8540 0.8540 0.8573 0.8567 0.8550
## [91] 0.8571 0.8524 0.8590 0.8577 0.8576 0.8552 0.8548 0.8573 0.8577 0.8588
一方で、日本人(平均170、標準偏差10)とタイ人(平均170.1、標準偏差10)のデータでモンテカルロシュミレーションをしてみると、日本人の方が確率的に高い場合もあったり、なかったりする(そもそも50%なので判断できないが)。これはモンテカルロシュミレーションのせいではなく、乱数を生成するもとの分布に差がないために起こり得る。
res <- vector(mode = "numeric", 100)
for (i in 1:100) {
a <- rnorm(sim_n, 170.0, 10)
b <- rnorm(sim_n, 170.1, 10)
res[i] <- sum((b - a) > 0) / length(a)
}
res
## [1] 0.5083 0.4974 0.4927 0.5009 0.5051 0.5031 0.4953 0.5000 0.5048 0.4972
## [11] 0.5014 0.5105 0.5075 0.5055 0.5047 0.5059 0.5081 0.5077 0.5129 0.5006
## [21] 0.5012 0.4991 0.4985 0.5014 0.4953 0.5060 0.4979 0.4994 0.4959 0.5034
## [31] 0.5014 0.5056 0.4896 0.5004 0.5072 0.5041 0.5069 0.5055 0.5038 0.5028
## [41] 0.5092 0.5001 0.5006 0.5088 0.4941 0.5022 0.5113 0.4996 0.4937 0.5083
## [51] 0.4969 0.4992 0.5090 0.4967 0.5042 0.5063 0.5058 0.5025 0.5043 0.5065
## [61] 0.4927 0.5078 0.5037 0.5003 0.4939 0.5003 0.5012 0.5011 0.5012 0.5103
## [71] 0.5033 0.5021 0.5061 0.4984 0.5059 0.5012 0.5072 0.5059 0.5099 0.5052
## [81] 0.5026 0.5060 0.5076 0.4970 0.5097 0.5038 0.5084 0.5077 0.5012 0.4934
## [91] 0.4969 0.5061 0.5054 0.4962 0.5024 0.5069 0.4981 0.5079 0.4979 0.5020
P値とは、「特定の統計モデルのもとで(帰無仮説が真であると仮定することも含む)、観察されたデータの統計的要約が観察された値と同じか、それよりも極端である場合の確率」のことで、P値が小さいということは、観察されたデータが帰無仮説のもとでは極端なものである、つまり観察されたデータが発生する確率が低いことを示す。
上記の声明にもある通り、p値は下記の通り解釈されるもの。