[κ°œλ…μ •λ¦¬] λΉˆλ„μ£Όμ˜(Frequentist) vs λ² μ΄μ§€μ•ˆ(Bayesian)

Posted by Euisuk's Dev Log on July 4, 2024

[κ°œλ…μ •λ¦¬] λΉˆλ„μ£Όμ˜(Frequentist) vs λ² μ΄μ§€μ•ˆ(Bayesian)

원본 κ²Œμ‹œκΈ€: https://velog.io/@euisuk-chung/μš©μ–΄μ •λ¦¬-λΉˆλ„μ£Όμ˜Frequentist-VS-λ² μ΄μ§€μ•ˆBaysian

Bayesian ν™•λ₯ κ³Ό Frequentist ν™•λ₯ 

μ•ˆλ…•ν•˜μ„Έμš”!πŸ™Œ μ˜€λŠ˜μ€ ν†΅κ³„ν•™μ˜ 두 κ°€μ§€ μ£Όμš” 접근법인 Bayesian ν™•λ₯ κ³Ό Frequentist ν™•λ₯ μ— λŒ€ν•΄ μžμ„Ένžˆ μ•Œμ•„λ³΄κ² μŠ΅λ‹ˆλ‹€. 이 κ°œλ…λ“€μ€ λ¨Έμ‹ λŸ¬λ‹κ³Ό λ”₯λŸ¬λ‹μ—μ„œ μ€‘μš”ν•œ 역할을 ν•˜λ―€λ‘œ, 깊이 μžˆλŠ” 이해가 ν•„μš”ν•©λ‹ˆλ‹€.

  1. ν™•λ₯  (Probability) κ°œλ…

ν™•λ₯ μ€ λΆˆν™•μ‹€ν•œ μ‚¬κ±΄μ˜ λ°œμƒ κ°€λŠ₯성을 μˆ˜μΉ˜ν™”ν•œ κ²ƒμž…λ‹ˆλ‹€. μΌμƒμ—μ„œ β€œν™•λ₯ μ μœΌλ‘œβ€, β€œν™•λ₯ μ΄ 높닀” λ“±μ˜ ν‘œν˜„μ„ 자주 μ‚¬μš©ν•˜μ§€λ§Œ, ν™•λ₯ μ„ ν•΄μ„ν•˜λŠ” λ°©μ‹μ—λŠ” 크게 두 κ°€μ§€ 접근법이 μžˆμŠ΅λ‹ˆλ‹€:

  • Frequentist(λΉˆλ„μ£Όμ˜)와 Bayesian(λ² μ΄μ§€μ•ˆ) μ ‘κ·Όλ²•μž…λ‹ˆλ‹€.

예λ₯Ό λ“€μ–΄, β€œμ£Όμ‚¬μœ„λ₯Ό λ˜μ‘Œμ„ λ•Œ 1이 λ‚˜μ˜¬ ν™•λ₯ μ€ 1/6μ΄λ‹€β€λΌλŠ” λͺ…μ œλ₯Ό μš°λ¦¬λŠ” 각각 Frequentist(λΉˆλ„μ£Όμ˜)와 Bayesian(λ² μ΄μ§€μ•ˆ) κ΄€μ μ—μ„œ λ‹€μŒκ³Ό 같이 해석해 λ³Ό 수 μžˆμŠ΅λ‹ˆλ‹€.

  • Frequentist 해석: μ£Όμ‚¬μœ„λ₯Ό 맀우 많이 (μ΄λ‘ μ μœΌλ‘œλŠ” λ¬΄ν•œνžˆ) λ˜μ§€λ©΄, 1이 λ‚˜μ˜€λŠ” 횟수의 λΉ„μœ¨μ΄ 1/6에 μˆ˜λ ΄ν•©λ‹ˆλ‹€.
  • Bayesian 해석: μ£Όμ‚¬μœ„μ˜ 곡정성에 λŒ€ν•œ 우리의 λ―ΏμŒμ„ λ°”νƒ•μœΌλ‘œ, λ‹€μŒ λ˜μ§€κΈ°μ—μ„œ 1이 λ‚˜μ˜¬ 것이라고 λ―ΏλŠ” 정도가 1/6μž…λ‹ˆλ‹€.

이처럼 두 μ ‘κ·Όλ²•μ—λŠ” ν™•λ₯ μ„ ν•΄μ„ν•˜λŠ” 차이가 μ‘΄μž¬ν•˜λ©°, μ΄λŠ” 톡계적 μΆ”λ‘ κ³Ό μ˜μ‚¬κ²°μ • 과정에도 큰 영ν–₯을 λ―ΈμΉ©λ‹ˆλ‹€. λ¨Έμ‹ λŸ¬λ‹κ³Ό λ”₯λŸ¬λ‹μ—μ„œλŠ” 문제의 νŠΉμ„±κ³Ό λͺ©μ μ— 따라 두 접근법을 적절히 μ„ νƒν•˜κ±°λ‚˜ κ²°ν•©ν•˜μ—¬ μ‚¬μš©ν•©λ‹ˆλ‹€.

  1. Frequentist ν™•λ₯ 

  • μ •μ˜:

    • μ‚¬κ±΄μ˜ λ°œμƒ λΉˆλ„μ— κΈ°λ°˜ν•œ 객관적인 ν™•λ₯  해석
  • νŠΉμ§•:

    • 반볡 κ°€λŠ₯ν•œ μ‹€ν—˜μ΄λ‚˜ 관찰을 톡해 ν™•λ₯ μ„ μ •μ˜

    • μž₯기적인 μƒλŒ€ λΉˆλ„λ₯Ό ν™•λ₯ λ‘œ κ°„μ£Ό

    • 객관적이고 데이터 쀑심적인 μ ‘κ·Ό 방식

    • κ³ μ •λœ λͺ¨μˆ˜(parameter)λ₯Ό κ°€μ •

  • Example: 동전 λ˜μ§€κΈ°μ—μ„œ, 동전을 2~3번 λ˜μ§€λ©΄ μ•žλ©΄μ΄ λ‚˜μ˜¬ ν™•λ₯  0.5이 아닐 수 μžˆλ”λΌλ„, μš°λ¦¬κ°€ μ•žλ©΄μ΄ λ‚˜μ˜¬ ν™•λ₯ μ΄ 0.5이라고 말할 수 μžˆλŠ” 것은 β€œλ™μ „μ„ λ¬΄ν•œνžˆ 많이 λ˜μ§€λ©΄, μ•žλ©΄μ΄ λ‚˜μ˜€λŠ” λΉ„μœ¨μ΄ 0.5에 μˆ˜λ ΄ν•œλ‹€β€λΌλŠ” λΉˆλ„μ£Όμ˜μ  κ΄€μ μ—μ„œ λ§ν•˜λŠ” κ²ƒμž…λ‹ˆλ‹€.

좜처: BBC - Are coin tosses really random?

μ£Όμš” 이둠

  1. λŒ€μˆ˜μ˜ 법칙(Law of Large Numbers):

    • ν‘œλ³Έμ˜ 크기가 컀질수둝 ν‘œλ³Έ 평균이 λͺ¨μ§‘λ‹¨μ˜ μ‹€μ œ 평균에 μˆ˜λ ΄ν•œλ‹€λŠ” μ΄λ‘ μž…λ‹ˆλ‹€.
    • μ‹€ν—˜μ„ μΆ©λΆ„νžˆ 많이 λ°˜λ³΅ν•˜λ©΄ κ΄€μ°°λœ λΉˆλ„κ°€ μ‹€μ œ ν™•λ₯ μ— κ°€κΉŒμ›Œμ§‘λ‹ˆλ‹€.
    • μˆ˜μ‹:

      P(∣XΛ‰nβˆ’ΞΌβˆ£<Ξ΅)β†’1Β asΒ nβ†’βˆžP( \bar{X}_n - \mu < \varepsilon) \to 1 \text{ as } n \to \inftyP(∣XΛ‰nβ€‹βˆ’ΞΌβˆ£<Ξ΅)β†’1Β asΒ nβ†’βˆž
    • μ—¬κΈ°μ„œ XΜ„n은 ν‘œλ³Έ 평균, ΞΌλŠ” λͺ¨μ§‘단 평균, Ρ은 μž„μ˜μ˜ μž‘μ€ μ–‘μˆ˜μž…λ‹ˆλ‹€.
  2. μ€‘μ‹¬κ·Ήν•œμ •λ¦¬(Central Limit Theorem):

    • 독립적이고 λ™μΌν•œ 뢄포λ₯Ό κ°€μ§„ ν™•λ₯ λ³€μˆ˜λ“€μ˜ 평균은 ν‘œλ³Έμ˜ 크기가 컀질수둝 μ •κ·œλΆ„ν¬μ— κ°€κΉŒμ›Œμ§‘λ‹ˆλ‹€.
    • λ§Žμ€ 톡계적 μΆ”λ‘ μ˜ κΈ°μ΄ˆκ°€ 되며, μ •κ·œλΆ„ν¬μ˜ 가정을 μ •λ‹Ήν™”ν•©λ‹ˆλ‹€.
    • μˆ˜μ‹:

      XΛ‰nβˆ’ΞΌΟƒ/nβ†’N(0,1)Β asΒ nβ†’βˆž\frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}} \to N(0,1) \text{ as } n \to \inftyΟƒ/n​XΛ‰nβ€‹βˆ’ΞΌβ€‹β†’N(0,1)Β asΒ nβ†’βˆž

    • μ—¬κΈ°μ„œ ΟƒλŠ” λͺ¨μ§‘λ‹¨μ˜ ν‘œμ€€νŽΈμ°¨, N(0,1)은 ν‘œμ€€μ •κ·œλΆ„ν¬μž…λ‹ˆλ‹€.
  3. μ΅œλŒ€μš°λ„μΆ”μ •(Maximum Likelihood Estimation, MLE):

    • κ΄€μΈ‘λœ 데이터λ₯Ό κ°€μž₯ 잘 μ„€λͺ…ν•˜λŠ” λͺ¨μˆ˜(parameter)λ₯Ό μΆ”μ •ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€.
    • μš°λ„ ν•¨μˆ˜λ₯Ό μ΅œλŒ€ν™”ν•˜λŠ” λͺ¨μˆ˜ 값을 μ°ΎμŠ΅λ‹ˆλ‹€.
    • μˆ˜μ‹:

      θ^MLE=arg⁑max⁑θL(θ∣x)\hat{\theta}{MLE} = \arg\max{\theta} L(\theta x)θ^MLE=argmaxθL(θ∣x)
    • μ—¬κΈ°μ„œ L(ΞΈ x)λŠ” μ£Όμ–΄μ§„ 데이터 x에 λŒ€ν•œ θ의 μš°λ„ ν•¨μˆ˜μž…λ‹ˆλ‹€.
  4. κ°€μ„€κ²€μ •(Hypothesis Testing):

    • 톡계적 κ°€μ„€μ˜ 타당성을 κ²€μ¦ν•˜λŠ” μ ˆμ°¨μž…λ‹ˆλ‹€.
    • μ£Όμš” κ°œλ…μœΌλ‘œλŠ” 귀무가섀, λŒ€λ¦½κ°€μ„€, p-κ°’, μœ μ˜μˆ˜μ€€ 등이 μžˆμŠ΅λ‹ˆλ‹€.
    • μ˜ˆμ‹œ: t-κ²€μ •
      • 귀무가섀 H0: ΞΌ = ΞΌ0
      • λŒ€λ¦½κ°€μ„€ H1: ΞΌ β‰  ΞΌ0
      • κ²€μ •ν†΅κ³„λŸ‰: t = (XΜ„ - ΞΌ0) / (s/√n)
      • μ—¬κΈ°μ„œ sλŠ” ν‘œλ³Έ ν‘œμ€€νŽΈμ°¨μž…λ‹ˆλ‹€.
  5. 신뒰ꡬ간(Confidence Interval):

    • λͺ¨μˆ˜μ˜ 참값이 μΌμ •ν•œ ν™•λ₯ λ‘œ 포함될 κ²ƒμœΌλ‘œ κΈ°λŒ€λ˜λŠ” κ΅¬κ°„μž…λ‹ˆλ‹€.
    • 반볡적인 ν‘œλ³Έ μΆ”μΆœμ—μ„œ 신뒰ꡬ간이 참값을 포함할 λΉ„μœ¨μ„ λ‚˜νƒ€λƒ…λ‹ˆλ‹€.
    • μˆ˜μ‹:

      (XΛ‰βˆ’zΟƒ/n,XΛ‰+zΟƒ/n)(\bar{X} - z^\sigma/\sqrt{n}, \bar{X} + z^\sigma/\sqrt{n})(XΛ‰βˆ’zΟƒ/n​,XΛ‰+zΟƒ/n​)

    • μ—¬κΈ°μ„œ z*λŠ” μ›ν•˜λŠ” μ‹ λ’°μˆ˜μ€€μ— ν•΄λ‹Ήν•˜λŠ” ν‘œμ€€μ •κ·œλΆ„ν¬μ˜ μž„κ³„κ°’μž…λ‹ˆλ‹€.
  • μž₯점

      1. 객관성: λ°μ΄ν„°μ—λ§Œ κΈ°λ°˜ν•˜μ—¬ μΆ”λ‘ ν•˜λ―€λ‘œ 주관적 νŒλ‹¨μ˜ 영ν–₯이 μ μŠ΅λ‹ˆλ‹€.
      1. κ³„μ‚°μ˜ λ‹¨μˆœμ„±: λ§Žμ€ κ²½μš°μ— 계산이 μƒλŒ€μ μœΌλ‘œ κ°„λ‹¨ν•©λ‹ˆλ‹€.
      1. λŒ€κ·œλͺ¨ λ°μ΄ν„°μ—μ„œμ˜ νš¨μœ¨μ„±: λŒ€λŸ‰μ˜ 데이터λ₯Ό λ‹€λ£° λ•Œ κ³„μ‚°μ μœΌλ‘œ 효율적일 수 μžˆμŠ΅λ‹ˆλ‹€.
      1. 널리 μ‚¬μš©λ˜λŠ” 방법둠: λ§Žμ€ 톡계적 기법과 μ†Œν”„νŠΈμ›¨μ–΄κ°€ λΉˆλ„μ£Όμ˜ 접근법을 기반으둜 ν•©λ‹ˆλ‹€.
  • 단점

      1. 사전 정보 ν™œμš©μ˜ ν•œκ³„: 이전 μ§€μ‹μ΄λ‚˜ μ „λ¬Έκ°€μ˜ μ˜κ²¬μ„ λͺ…μ‹œμ μœΌλ‘œ λͺ¨λΈμ— ν¬ν•¨μ‹œν‚€κΈ° μ–΄λ ΅μŠ΅λ‹ˆλ‹€.
      1. μ†Œκ·œλͺ¨ λ°μ΄ν„°μ…‹μ—μ„œμ˜ ν•œκ³„: 데이터가 λΆ€μ‘±ν•œ 경우 μ‹ λ’°ν•  λ§Œν•œ 좔둠이 μ–΄λ €μšΈ 수 μžˆμŠ΅λ‹ˆλ‹€.
      1. 점 μΆ”μ •μ˜ ν•œκ³„: λΆˆν™•μ‹€μ„±μ„ μ™„μ „νžˆ ν‘œν˜„ν•˜κΈ° μ–΄λ €μšΈ 수 μžˆμŠ΅λ‹ˆλ‹€.
      1. 반볡 κ°€λŠ₯ν•œ μ‹€ν—˜ κ°€μ •: λͺ¨λ“  상황이 반볡 κ°€λŠ₯ν•œ μ‹€ν—˜μœΌλ‘œ λͺ¨λΈλ§λ˜κΈ° μ–΄λ €μš΄ κ²½μš°κ°€ μžˆμŠ΅λ‹ˆλ‹€.
  1. Bayesian ν™•λ₯ 

  • μ •μ˜:

    • 주관적 믿음의 정도λ₯Ό λ‚˜νƒ€λ‚΄λŠ” ν™•λ₯  해석
  • νŠΉμ§•:

    • 사전 μ§€μ‹μ΄λ‚˜ λ―ΏμŒμ„ λ°”νƒ•μœΌλ‘œ 초기 ν™•λ₯ (사전 ν™•λ₯ ) μ„€μ •

    • μƒˆλ‘œμš΄ μ¦κ±°λ‚˜ 데이터λ₯Ό 톡해 ν™•λ₯ μ„ κ°±μ‹ (사후 ν™•λ₯ )

    • 주관적이며 μ§€μ‹μ΄λ‚˜ 믿음의 정도λ₯Ό 반영

    • λΆˆν™•μ‹€μ„±μ„ λ‹€λ£¨λŠ” 데 유용

  • Example: 동전 λ˜μ§€κΈ°μ—μ„œ, μ•žλ©΄μ΄ λ‚˜μ˜¬ ν™•λ₯  0.5λΌλŠ” 것을 λ² μ΄μ§€μ•ˆ ν™•λ₯  관점 μΈ‘λ©΄μ—μ„œ ν•΄μ„ν•˜λ©΄ μ΄λŠ” β€œμ΄ 동전이 κ³΅μ •ν•˜λ‹€λŠ” 우리의 ν˜„μž¬ 믿음 μƒνƒœβ€λ₯Ό μ˜λ―Έν•©λ‹ˆλ‹€.

μ£Όμš” 이둠

  1. 사전 ν™•λ₯  (Prior Probability)
  • μ •μ˜: 데이터λ₯Ό κ΄€μ°°ν•˜κΈ° μ „μ˜ 가섀에 λŒ€ν•œ 초기 ν™•λ₯  μΆ”μ •μΉ˜
  • ν‘œκΈ°: P(ΞΈ)
  • νŠΉμ§•: κΈ°μ‘΄ μ§€μ‹μ΄λ‚˜ μ „λ¬Έκ°€μ˜ μ˜κ²¬μ„ λ°˜μ˜ν•˜μ—¬ λ„μΆœν•¨
  1. μš°λ„ (Likelihood)
  • μ •μ˜: μ£Όμ–΄μ§„ λͺ¨λΈ νŒŒλΌλ―Έν„° θ에 λŒ€ν•΄ κ΄€μ°°λœ 데이터 Dκ°€ λ°œμƒν•  ν™•λ₯ 
  • ν‘œκΈ°: P(D ΞΈ)
  • νŠΉμ§•:
    • 데이터가 λͺ¨λΈμ„ μ–Όλ§ˆλ‚˜ 잘 μ„€λͺ…ν•˜λŠ”μ§€λ₯Ό λ‚˜νƒ€λƒ„
    • νŒŒλΌλ―Έν„° θ에 λŒ€ν•œ ν•¨μˆ˜λ‘œ 해석됨
    • ν™•λ₯  뢄포가 μ•„λ‹Œ μš°λ„ ν•¨μˆ˜λ‘œ 취급됨
  1. 사후 ν™•λ₯  (Posterior Probability)
  • μ •μ˜: 데이터λ₯Ό κ΄€μ°°ν•œ ν›„ μ—…λ°μ΄νŠΈλœ κ°€μ„€μ˜ ν™•λ₯ 
  • ν‘œκΈ°: P(ΞΈ D)
  • νŠΉμ§•: 사전 ν™•λ₯ κ³Ό μš°λ„λ₯Ό κ²°ν•©ν•˜μ—¬ 계산
  1. 베이즈 정리(Bayes’ Theorem):
    • μˆ˜μ‹:

      P(θ∣D)=P(D∣θ)β‹…P(ΞΈ)P(D)P(\theta D) = \frac{P(D \theta) \cdot P(\theta)}{P(D)}P(θ∣D)=P(D)P(D∣θ)β‹…P(ΞΈ)​
  • μ—¬κΈ°μ„œ 각각의 κΈ°ν˜ΈλŠ” λ‹€μŒμ„ μ˜λ―Έν•©λ‹ˆλ‹€.:

    • P(ΞΈ D)λŠ” 사후 ν™•λ₯ 
    • P(D ΞΈ)λŠ” μš°λ„
    • P(ΞΈ)λŠ” 사전 ν™•λ₯ 
    • P(D)λŠ” 증거(evidence)둜, λͺ¨λ“  κ°€λŠ₯ν•œ θ에 λŒ€ν•œ 전체 ν™•λ₯ 
  • μ˜ˆμ‹œ: 의료 진단을 μ˜ˆμ‹œλ‘œ λ“€μ–΄λ³΄κ² μŠ΅λ‹ˆλ‹€.

    • A: ν™˜μžκ°€ νŠΉμ • μ§ˆλ³‘μ„ κ°€μ§€κ³  있음
    • B: μ–‘μ„± 검사 κ²°κ³Ό
    • P(A): μ§ˆλ³‘μ˜ 사전 ν™•λ₯  (예: 인ꡬ의 1%κ°€ 이 μ§ˆλ³‘μ„ 가짐)
    • P(B A): μ§ˆλ³‘μ΄ μžˆμ„ λ•Œ μ–‘μ„± κ²°κ³Όκ°€ λ‚˜μ˜¬ ν™•λ₯  (κ²€μ‚¬μ˜ 민감도)
    • P(B): 전체 μΈκ΅¬μ—μ„œ μ–‘μ„± κ²°κ³Όκ°€ λ‚˜μ˜¬ ν™•λ₯ 
  • μœ„ μ˜ˆμ‹œμ²˜λŸΌ μš°λ¦¬λŠ” 베이즈 정리λ₯Ό μ‚¬μš©ν•˜μ—¬ μ–‘μ„± κ²°κ³Όκ°€ λ‚˜μ™”μ„ λ•Œ μ‹€μ œλ‘œ μ§ˆλ³‘μ΄ μžˆμ„ ν™•λ₯ μ„ 계산할 수 μžˆμŠ΅λ‹ˆλ‹€.

  1. λ² μ΄μ§€μ•ˆ μΆ”λ‘ (Bayesian Inference):
    • κ³Όμ •: 사전 뢄포 β†’ 데이터 κ΄€μ°° β†’ μš°λ„ 계산 β†’ 사후 뢄포 λ„μΆœ
    • 점 μΆ”μ • λŒ€μ‹  ν™•λ₯  λΆ„ν¬λ‘œ κ²°κ³Όλ₯Ό ν‘œν˜„ν•˜μ—¬ λΆˆν™•μ‹€μ„±μ„ λͺ…μ‹œμ μœΌλ‘œ λ‚˜νƒ€λƒ…λ‹ˆλ‹€.
  • μž₯점

      1. 사전 μ§€μ‹μ˜ 톡합: 도메인 μ „λ¬Έκ°€μ˜ μ§€μ‹μ΄λ‚˜ 이전 연ꡬ κ²°κ³Όλ₯Ό λͺ¨λΈμ— λͺ…μ‹œμ μœΌλ‘œ 포함할 수 μžˆμŠ΅λ‹ˆλ‹€.
      1. λΆˆν™•μ‹€μ„±μ˜ μžμ—°μŠ€λŸ¬μš΄ ν‘œν˜„: νŒŒλΌλ―Έν„°μ˜ 전체 ν™•λ₯  뢄포λ₯Ό μ œκ³΅ν•˜μ—¬ λΆˆν™•μ‹€μ„±μ„ 더 잘 ν‘œν˜„ν•©λ‹ˆλ‹€.
      1. 점진적 ν•™μŠ΅: μƒˆλ‘œμš΄ 데이터가 도착할 λ•Œλ§ˆλ‹€ λͺ¨λΈμ„ μžμ—°μŠ€λŸ½κ²Œ μ—…λ°μ΄νŠΈν•  수 μžˆμŠ΅λ‹ˆλ‹€.
      1. μ†Œκ·œλͺ¨ λ°μ΄ν„°μ…‹μ—μ„œμ˜ 강점: 사전 정보λ₯Ό ν™œμš©ν•˜μ—¬ 데이터가 적은 μƒν™©μ—μ„œλ„ 의미 μžˆλŠ” 좔둠이 κ°€λŠ₯ν•©λ‹ˆλ‹€.
  • 단점

      1. 계산 λ³΅μž‘μ„±: λ³΅μž‘ν•œ λͺ¨λΈμ˜ 경우 사후 뢄포 계산이 μ–΄λ €μšΈ 수 μžˆμŠ΅λ‹ˆλ‹€.
      1. 사전 뢄포 μ„ νƒμ˜ μ£Όκ΄€μ„±: λΆ€μ μ ˆν•œ 사전 뢄포 선택이 κ²°κ³Όλ₯Ό μ™œκ³‘ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
      1. ν•΄μ„μ˜ 어렀움: λΉ„μ „λ¬Έκ°€μ—κ²Œ λ² μ΄μ§€μ•ˆ 결과의 해석이 직관적이지 μ•Šμ„ 수 μžˆμŠ΅λ‹ˆλ‹€.

두 μ ‘κ·Όλ²•μ˜ μ£Όμš” 차이점

  1. ν™•λ₯  해석:

    • Frequentist: ν™•λ₯ μ„ μž₯기적인 μ‚¬κ±΄μ˜ λΉˆλ„λ‘œ ν•΄μ„ν•©λ‹ˆλ‹€.
    • Bayesian: ν™•λ₯ μ„ 사건 λ°œμƒμ— λŒ€ν•œ 믿음 λ˜λŠ” 주관적 μ²™λ„λ‘œ ν•΄μ„ν•©λ‹ˆλ‹€.
  2. λͺ¨μˆ˜(Parameter) μ·¨κΈ‰:

    • Frequentist: λͺ¨μˆ˜λ₯Ό λ―Έμ§€μ˜ κ³ μ •λœ μƒμˆ˜λ‘œ κ°„μ£Όν•©λ‹ˆλ‹€.
    • Bayesian: λͺ¨μˆ˜λ₯Ό ν™•λ₯ μ μœΌλ‘œ λ³€ν•˜λŠ” ν™•λ₯ λ³€μˆ˜λ‘œ μ·¨κΈ‰ν•©λ‹ˆλ‹€.
  3. 사전 μ •λ³΄μ˜ ν™œμš©:

    • Frequentist: 주둜 ν˜„μž¬ λ°μ΄ν„°μ—λ§Œ μ˜μ‘΄ν•©λ‹ˆλ‹€.
    • Bayesian: 사전 정보λ₯Ό λͺ…μ‹œμ μœΌλ‘œ λͺ¨λΈμ— ν†΅ν•©ν•©λ‹ˆλ‹€.
  4. λΆˆν™•μ‹€μ„± 처리:

    • Frequentist: 주둜 점 μΆ”μ •κ³Ό 신뒰ꡬ간을 μ‚¬μš©ν•©λ‹ˆλ‹€.
    • Bayesian: λͺ¨μˆ˜μ˜ 전체 ν™•λ₯  뢄포λ₯Ό 톡해 λΆˆν™•μ‹€μ„±μ„ ν‘œν˜„ν•©λ‹ˆλ‹€.
  5. 계산 λ³΅μž‘μ„±:

    • Frequentist: 일반적으둜 계산이 μƒλŒ€μ μœΌλ‘œ λ‹¨μˆœν•©λ‹ˆλ‹€.
    • Bayesian: λ³΅μž‘ν•œ 사후 뢄포 계산이 ν•„μš”ν•  수 μžˆμ–΄ κ³„μ‚°λŸ‰μ΄ λ§Žμ„ 수 μžˆμŠ΅λ‹ˆλ‹€.

정리

νŠΉμ„± Bayesian Frequentist
ν™•λ₯  해석 사건 λ°œμƒμ— λŒ€ν•œ λ―ΏμŒμ΄λ‚˜ 척도 μž₯기적으둜 μΌμ–΄λ‚˜λŠ” μ‚¬κ±΄μ˜ λΉˆλ„
λͺ¨μˆ˜ 관점 ν™•λ₯ λ³€μˆ˜λ‘œ μ·¨κΈ‰ κ³ μ •λœ μƒμˆ˜λ‘œ μ·¨κΈ‰
사전 정보 사전 ν™•λ₯ (prior) μ‚¬μš© μ‚¬μš©ν•˜μ§€ μ•ŠμŒ
κ²°κ³Ό ν‘œν˜„ ν™•λ₯  뢄포 점 μΆ”μ • λ˜λŠ” 신뒰ꡬ간
λΆˆν™•μ‹€μ„± 처리 사후 뢄포λ₯Ό 톡해 μžμ—°μŠ€λŸ½κ²Œ ν‘œν˜„ λ³„λ„μ˜ 방법 ν•„μš” (예: λΆ€νŠΈμŠ€νŠΈλž˜ν•‘)
데이터 μš”κ΅¬λŸ‰ 적은 λ°μ΄ν„°λ‘œλ„ μΆ”λ‘  κ°€λŠ₯ 일반적으둜 λ§Žμ€ 데이터 ν•„μš”
계산 λ³΅μž‘λ„ λ³΅μž‘ν•œ λͺ¨λΈμ—μ„œ κ³„μ‚°λŸ‰ 증가 μƒλŒ€μ μœΌλ‘œ λ‹¨μˆœν•œ 계산
ν•΄μ„μ˜ 직관성 직관적 해석 κ°€λŠ₯ λ•Œλ‘œ 해석이 λ³΅μž‘ν•  수 있음
과적합 λ°©μ§€ 사전 뢄포λ₯Ό ν†΅ν•œ μžμ—°μŠ€λŸ¬μš΄ μ •κ·œν™” λ³„λ„μ˜ μ •κ·œν™” 기법 ν•„μš”
μ£Όμš” 이둠/기법 베이즈 정리, MCMC, λ³€λΆ„μΆ”λ‘  μ΅œλŒ€μš°λ„μΆ”μ •, κ°€μ„€κ²€μ •, 신뒰ꡬ간

μ˜ˆμ‹œλ₯Ό ν†΅ν•œ 비ꡐ

  1. 동전 λ˜μ§€κΈ° 문제:

    • Frequentist μ ‘κ·Ό: 동전을 100번 던져 μ•žλ©΄μ΄ 55번 λ‚˜μ™”λ‹€λ©΄, μ•žλ©΄μ΄ λ‚˜μ˜¬ ν™•λ₯ μ„ 55/100 = 0.55둜 μΆ”μ •ν•©λ‹ˆλ‹€.
    • Bayesian μ ‘κ·Ό: 동전이 κ³΅μ •ν•˜λ‹€λŠ” 사전 믿음(예: Beta(50,50))을 κ°€μ§€κ³  μ‹œμž‘ν•˜μ—¬, 100번의 μ‹œν–‰ κ²°κ³Όλ₯Ό κ΄€μ°°ν•œ ν›„ 사후 뢄포 Beta(105,95)λ₯Ό μ–»μŠ΅λ‹ˆλ‹€. 이λ₯Ό 톡해 μ•žλ©΄μ΄ λ‚˜μ˜¬ ν™•λ₯ μ˜ 뢄포λ₯Ό μΆ”μ •ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
  2. 의료 진단 문제:

    • Frequentist μ ‘κ·Ό: νŠΉμ • 증상이 μžˆλŠ” ν™˜μž 쀑 80%κ°€ μ‹€μ œλ‘œ μ§ˆλ³‘μ„ κ°€μ§€κ³  μžˆλ‹€λŠ” 데이터λ₯Ό λ°”νƒ•μœΌλ‘œ, μƒˆλ‘œμš΄ ν™˜μžκ°€ 이 증상을 보일 λ•Œ μ§ˆλ³‘ κ°€λŠ₯성을 0.8둜 μΆ”μ •ν•©λ‹ˆλ‹€.
    • Bayesian μ ‘κ·Ό: μ§ˆλ³‘μ˜ 전체 λ°œμƒλ₯ (사전 ν™•λ₯ ), μ¦μƒμ˜ 민감도와 νŠΉμ΄λ„λ₯Ό κ³ λ €ν•˜μ—¬ 베이즈 정리λ₯Ό μ μš©ν•©λ‹ˆλ‹€. 이λ₯Ό 톡해 증상이 μžˆμ„ λ•Œ μ§ˆλ³‘μΌ ν™•λ₯ (사후 ν™•λ₯ )을 κ³„μ‚°ν•©λ‹ˆλ‹€.
  3. A/B ν…ŒμŠ€νŒ…:

    • Frequentist μ ‘κ·Ό: 두 버전 κ°„μ˜ 차이가 ν†΅κ³„μ μœΌλ‘œ μœ μ˜ν•œμ§€ p-값을 κ³„μ‚°ν•˜μ—¬ νŒλ‹¨ν•©λ‹ˆλ‹€.
    • Bayesian μ ‘κ·Ό: 각 λ²„μ „μ˜ 성곡λ₯ μ— λŒ€ν•œ 사후 뢄포λ₯Ό κ³„μ‚°ν•˜κ³ , ν•œ 버전이 λ‹€λ₯Έ 버전보닀 μš°μˆ˜ν•  ν™•λ₯ μ„ 직접 μΆ”μ •ν•©λ‹ˆλ‹€.
  4. μ‹œκ³„μ—΄ 예츑:

    • Frequentist μ ‘κ·Ό: ARIMA와 같은 λͺ¨λΈμ„ μ‚¬μš©ν•˜μ—¬ κ³Όκ±° 데이터에 κ°€μž₯ 잘 λ§žλŠ” 단일 λͺ¨λΈμ„ μ°ΎμŠ΅λ‹ˆλ‹€.
    • Bayesian μ ‘κ·Ό: 동적 μ„ ν˜• λͺ¨λΈ(Dynamic Linear Models)을 μ‚¬μš©ν•˜μ—¬ μ‹œκ°„μ— λ”°λ₯Έ νŒŒλΌλ―Έν„°μ˜ λ³€ν™”λ₯Ό ν™•λ₯  λΆ„ν¬λ‘œ λͺ¨λΈλ§ν•©λ‹ˆλ‹€.

κ²°λ‘ 

Bayesian 접근법과 Frequentist 접근법은 각각 κ³ μœ ν•œ μž₯단점을 κ°€μ§€κ³  있으며, 상황에 따라 μ μ ˆν•œ 방법을 μ„ νƒν•˜λŠ” 것이 μ€‘μš”ν•©λ‹ˆλ‹€. λ§Žμ€ 경우, 두 접근법을 λ³΄μ™„μ μœΌλ‘œ μ‚¬μš©ν•˜λŠ” 것이 κ°€μž₯ 효과적일 수 μžˆμŠ΅λ‹ˆλ‹€.

  • Bayesian 방법은 λΆˆν™•μ‹€μ„±μ„ λͺ…μ‹œμ μœΌλ‘œ 닀루고, 사전 지식을 ν†΅ν•©ν•˜λ©°, 점진적 ν•™μŠ΅μ— μœ λ¦¬ν•©λ‹ˆλ‹€. λ”°λΌμ„œ 데이터가 μ œν•œμ μ΄κ±°λ‚˜, 도메인 지식이 μ€‘μš”ν•˜κ±°λ‚˜, λΆˆν™•μ‹€μ„±μ˜ μ •ν™•ν•œ 좔정이 ν•„μš”ν•œ κ²½μš°μ— 특히 μœ μš©ν•©λ‹ˆλ‹€.
  • Frequentist 방법은 계산이 κ°„λ‹¨ν•˜κ³ , λŒ€κ·œλͺ¨ λ°μ΄ν„°μ…‹μ—μ„œ 효율적이며, 널리 μ‚¬μš©λ˜λŠ” λ§Žμ€ 톡계적 도ꡬ와 ν˜Έν™˜λ©λ‹ˆλ‹€. λ”°λΌμ„œ λŒ€λŸ‰μ˜ 데이터가 μžˆκ±°λ‚˜, 계산 νš¨μœ¨μ„±μ΄ μ€‘μš”ν•˜κ±°λ‚˜, ν‘œμ€€ν™”λœ 보고가 ν•„μš”ν•œ κ²½μš°μ— 적합할 수 μžˆμŠ΅λ‹ˆλ‹€.

λ¨Έμ‹ λŸ¬λ‹κ³Ό λ”₯λŸ¬λ‹ λΆ„μ•Όμ—μ„œλŠ” 두 μ ‘κ·Όλ²•μ˜ μž₯점을 κ²°ν•©ν•œ ν•˜μ΄λΈŒλ¦¬λ“œ 방법둠도 점차 λ°œμ „ν•˜κ³  μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, ν™•λ₯ μ  μ—­μ „νŒŒ(Stochastic Backpropagation) λ“±μ˜ 기법은 Bayesian μΆ”λ‘ μ˜ μž₯점을 μœ μ§€ν•˜λ©΄μ„œλ„ λŒ€κ·œλͺ¨ 데이터셋에 적용 κ°€λŠ₯ν•œ νš¨μœ¨μ„±μ„ μ œκ³΅ν•©λ‹ˆλ‹€.

μš”μ•½ν•˜μžλ©΄! νŠΉμ • λ¬Έμ œμ™€ 상황에 κ°€μž₯ μ ν•©ν•œ 접근법을 μ„ νƒν•˜κ±°λ‚˜ 두 접근법을 적절히 μ‘°ν•©ν•˜λŠ” 것이 μ΅œμ„ μ˜ κ²°κ³Όλ₯Ό μ–»λŠ” 데 μ€‘μš”ν•©λ‹ˆλ‹€. 두 접근법에 λŒ€ν•œ 깊이 μžˆλŠ” μ΄ν•΄λŠ” 데이터 κ³Όν•™μžμ™€ λ¨Έμ‹ λŸ¬λ‹ μ‹€λ¬΄μžλ“€μ—κ²Œ 더 ν’λΆ€ν•œ 도ꡬ μ„ΈνŠΈλ₯Ό μ œκ³΅ν•˜λ©°, λ‹€μ–‘ν•œ μƒν™©μ—μ„œ 더 λ‚˜μ€ μ˜μ‚¬κ²°μ •μ„ ν•  수 있게 ν•΄μ€λ‹ˆλ‹€.



-->