본문 바로가기
스터디/인공지능, 딥러닝, 머신러닝

[Bayesian] Frequentism vs Bayesianism (빈도주의 vs 베이지안)

by 궁금한 준이 2023. 8. 29.
728x90
반응형

 

Introduction to Bayesian 

통계적 방법으로 빈도주의(frequentism)과 베이지안(bayesianism)이 있고 이 둘의 차이를 정리해보았다.

 

  • 빈도주의 관점 (Frequentism)
    • 확률은 반복된 시행으로 일어나는 사건의 횟수이다.
    • 파라미터 $\theta$는 고정되어있기에 $\theta$의 횟수를 정의하는 것은 의미가 없다.
    • 대신 $X$에 대한 반복 시행에 관심이 있다.
  • 베이지안 관점 (Bayesianism)
    • 확률은 사건의 불확실성을 의미한다. (quantification of uncertainty)
    • 따라서 파라미터 $\theta$의 확률(불확실성)을 정의하는 것이 자연스럽다. $p(\theta)$
    • 데이터 $X$가 관찰된 이후의 $\theta$의 확률(불확실성)에 관심이 있다. 이를 사후확률 posterior라 한다. $p(\theta | X)$
    • $X$의 불확실성에는 관심이 없다. 

coin toss를 예시로 빈도주의와 베이지안의 관점을 살펴보자.

Coin toss example

Coin toss example - a frequentist approach

동전던지기를 통해 얻은 $n$개의 결과가 다음과 같다고 하자. ($1$이 앞면, $0$이 뒷면이다.)

\[ X = (x_1, \dots, x_n), \quad x_i  \in \{0, 1 \} \ \text{for} \ i=1, \dots, n \]

동전던지기는 베르누이 분포를 따른다고 가정하자.

\[ p(x;\theta) = \theta, \ \theta \in [0, 1], \quad E[x]=\theta, \ \text{Var}(x)=\theta (1 - \theta) \]

이를 바탕으로 $\theta$를 추정해보자.

 

데이터 $X$를 통해 추정량을 구하면

\[ \hat{\theta}(X) = \underset{\theta} {\mathrm{argmax}}\sum_{i=1}^{n}\log p(x_i;\theta) = \cfrac{1}{n}\sum_{i=1}^{n}x_i \]

데이터가 많을 수록 $\hat{\theta}$는 $\theta$에 가까워진다.

(빈도주의에 따르면) $\hat{\theta}$는 RV이므로 기댓값과 분산 역시 존재한다.

\[ E_{p_{data}(X)}[\hat{\theta}(X)] = \theta, \quad \text{Var}_{p_{data}(X)}[\hat{\theta}(X)] = \cfrac{\theta (1 - \theta)}{n} \]

CLT에 의하여 다음이 성립한다.

\[ \cfrac{\hat{\theta} - \theta}{\sigma / \sqrt{n}} \overset{d}\to N(0, 1) \]

그러나 우리는 true variance $\sigma^2$를 알 수 없다.

 

WLLN에 따르면

\[ \hat{\sigma}^2(X) := \hat{\theta}(X) (1 - \hat{\theta}(X)) \overset{p}\to \sigma^2 \]

 

continuous mapping theorem(연속사상정리)과 Slutsky's theorem(슬러츠키 정리)에 의하여 다음이 성립한다.

\[ \cfrac{\hat{\theta} - \theta}{\hat{\sigma} / \sqrt{n} } = \cfrac{\hat{\theta} - \theta}{\sigma / \sqrt{n}} \cdot \cfrac{\sigma}{\hat{\sigma}} \overset{d}\to N(0, 1) \]

 

이를 바탕으로 $100(1 - \alpha)\%$ Confidence Interval (CI)를 구하면

\[ \text{Pr}\left( \hat{\theta} - Z_{1 - \alpha/2}\cfrac{\hat{\sigma}}{\sqrt{n}} < \theta < \hat{\theta} + Z_{1 - \alpha/2}\cfrac{\hat{\sigma}}{\sqrt{n}} \right) \to 1-\alpha \]

(이때 $Z_{a}$는 $N(0, 1)$의 quantile 이다)

 

이때, 신뢰구간은 다음을 의미한다.

$p_{data}(x)$로부터 생성된 $X$가 많이 있을 때, 각 데이터셋 $X$로 CI를 계산하면 $1-\alpha$의 비율만큼 $\theta$가 CI에 포함된다.

Confidence Interval

반응형

Coin toss example - a bayesian approach

prior를 아래와 같이 베타분포를 따른다고 가정하자.

\[ p(\theta) = \text{Beta}(\theta; a, b) = \cfrac{\Gamma(a + b)}{\Gamma(a) \Gamma(b)} \theta^{a-1}(1-\theta)^{b-1} \]

beta distribution

$X$를 관찰한 후 posterior 역시 베타분포를 따른다

\[ p(\theta|X) = \text{Beta}\bigg( \theta; a + \sum_{i=1}^{n}x, \ b + \sum_{i=1}^{n}(1-x) \bigg) \]

 

신용구간(Credible Region, CR)은 다음과 같이 정의된다.

\[ \int_{L(X)}^{U(X)} p(\theta | X) \mathrm{d} \theta = 1-\alpha \]

 

위 적분을 해석하면 $X$를 관측한 이후 $\theta$가 $[L(X),\ U(X)]$에 있을 확률은 $(1-\alpha)$이다. (확률로 해석할 수 있다!)

 

Model selection for regression

데이터셋 $\mathcal{D} = (X, Y) = \{ (x_i, y_i) \}_{i=1}^{n}$ 이 주어져있고, $\mathcal{D}$가 어떤 함수 $y=f_{\theta}(x)$와 약간의 노이즈로부터 생성되었다고 하자.

\[ p(y|x;\theta) = \mathcal{N}(y|f_{\theta}(x), \sigma_y^2) \]

어떤 $f_{\theta}(x)$가 적절한가? (proper)

 

maximum linklihood를 적용하면 overfitting issue가 발생한다.

 

Frequentist approaches

Akaike Information Criterion (AIC)를 이용하여 보다 복잡한 모델에 패널티를 주자.

$k$가 파라미터의 개수라 할 때

\[ \text{AIC}(\mathfrak{m}) = 2k - \underset{\theta}\max \log p(Y|X;\theta, \mathfrak{m}) \]

혹은 더 많은 표본(sample)을 만드는 방법도 있다. (cross-validation, bootstrapping, etc)

 

Bayesian approaches

데이터의 marginal likelihood (혹은 evidence)를 정의한다

\[ p(Y|X; \mathfrak{m}) = \int p(Y|X, \theta; \mathfrak{m}) p(\theta) \rm{d} \theta \]

우리는 모델 $\frak{m}$을 확률변수로 취급할 수 있고 posterior를 구하면 다음과 같다

\[ p(\mathfrak{m}|X, Y) = \cfrac{p(Y|X, \mathfrak{m}) p(\mathfrak{m})}{p(Y|X)} \]

 

이를 이용하여 두 모델 $\mathfrak{m}_1, \mathfrak{m}_2$를 비교할때 Bayes factor를 이용한다.

\[ \cfrac{p(Y|X, \mathfrak{m}_1)}{p(Y|X, \mathfrak{m}_2)} \]

(확률에 대한 비율이므로 분모에 있는 모델이 더 강한 evidence를 갖는다고 해석한다. bayes factor가 $1$이면 no evidence를 의미한다.)

 

Summary

  • 빈도주의
    • 확률은 제한된 횟수(limiting frequencies)이다.
    • 반복 시행이라는 환경에서 이해된다
    • 모델의 파라미터는 고정값이다
    • 일부 경우에, 현재 데이터 $X$는 중요하지 않을 수 있다
    • 신뢰구간의 정의가 다소 이상하며(확률로 직관적으로 해석되지 않음), 모델 비교에 주의가 필요하다.
  • 베이지안
    • 확률은 불확실성(uncertainties)이다
    • 파라미터와 모델을 불확실성으로 정의하는 것이 자연스럽다
    • 신용구간과 베이즈 요인의 정의가 직관적이다
    • 그러나 계산은 쉽지 않다. (computations may be non-trivial)
728x90
반응형