[๋จธ์ ๋ฌ๋][์ฐจ์์ถ์] ๋ณ์ ์ถ์ถ๋ฒ - Principal Component Analysis (PCA)
์๋ณธ ๊ฒ์๊ธ: https://velog.io/@euisuk-chung/๋จธ์ ๋ฌ๋์ฐจ์์ถ์-๋ณ์-์ถ์ถ๋ฒ-Principal-Component-Analysis-PCA
๋ณธ ํฌ์คํธ๋ ๊ณ ๋ ค๋ํ๊ต ๊ฐํ์ฑ ๊ต์๋
์ ๊ฐ์๋ฅผ ์๊ฐ ํ ์ ๋ฆฌ๋ฅผ ํ ๊ฒ์
๋๋ค. ์์ฑ ๋ฐ ์ค๋ช
์ ํธ์๋ฅผ ์ํด ์๋๋ ํธํ๊ฒ ์์ฑํ ์ ์ํด๋ถํ๋๋ฆฝ๋๋ค.
Dimensionality Reduction
Supervised Variable Extraction
์ฐจ์์ถ์๋, ๋ชจ๋ธ๋ง์ ํ๊ธฐ ์ํด ๋ด๊ฐ ๊ฐ์ง ๋ฐ์ดํฐ์ ์ ๋ณด๋ฅผ ์ต๋ํ ๋ณด์กดํ๋ฉด์, ํจ์ฌ ๋ compactํ๊ฒ ๋ฐ์ดํฐ์ ์ ๊ตฌ์ฑํ๋ ๊ฒ์ ๋ชฉ์ ์ผ๋ก ํ๋ฉฐ, ํฌ๊ฒ ๋ณ์์ ํ(Variable Selection, ๋ณ์๋ค์ ๋ถ๋ถ ์งํฉ ์ ํ)๊ณผ ๋ณ์์ถ์ถ(Variable Extraction, ๋ณ์๋ค์ ์์ฝํ๋ ์๋ก์ด ๋ณ์ ์์ฑ)์ด ์๋ค.
์ด์ ํฌ์คํธ์์๋ ์๋ ํ์์ Supervised Variable Selection์ ์ดํด๋ณด์๋ค. ์ค๋์ Supervised Variable Extraction์ ๋ํด ์ด์ผ๊ธฐ๋ฅผ ํ์ด๋ณด๋๋ก ํ๊ฒ ๋ค.
Principal Component Analysis
Principal Component Analysis (PCA)๋ ๋ณ์์ถ์ถ์ ๋ํ์ ์ธ ๊ธฐ๋ฒ์ผ๋ก, ์ฃผ์ฑ๋ถ๋ถ์์ผ๋ก๋ ๋ถ๋ฆฌ๋ฉฐ, original data์ ๋ถ์ฐ์ ์ต๋ํ ๋ณด์กด(preserve the variance)ํ๋ ์ง๊ต ๊ธฐ์ (orthogonal basis)๋ฅผ ์ฐพ๋ ๋ฐฉ๋ฒ์ด๋ค.
Q. ๋ค์ ๋ฐ์ ๋ ๊ฐ์ง์ ๊ทธ๋ฆผ์ ์์ ๊ทธ๋ฆผ์ ์ฌ์์ํจ ๊ธฐ์ ๋ค์ด๋ค. ์ด๋, ๊ธฐ์ ๋ ๊ฐ๊ฐ์ ๋ฐ์ดํฐ๋ค์ด ์ฌ์์ด ๋๋ ๋์์ ๋ฒกํฐ๋ฅผ ์๋ฏธํ๋ค. ๊ทธ๋ ๋ค๋ฉด ๋ถ์ฐ(Variance)์ ์ ๋ณด์กดํ๋ค๋ ๋ฌด์จ ์๋ฏธ์ผ๊น?
๋ถ์ฐ๋(variability)์ ๊ฐ๊ฐ ๊ธฐ์ ๋ค์ ์ฌ์๋ ์ ๋ค์ ํฉ์ด์ง ์ ๋๋ฅผ ์๋ฏธํ๋ค. ์ด๋ฅผ ์ ๋ณด์กดํ๋ค๋ ๊ฒ์ ์๋ ๋ฐ์ดํฐ๊ฐ ๊ฐ์ง๊ณ ์์๋ ๋ถ์ฐ๋์ ์ผ๋งํผ ์ ๊ฐ์งํ๋๊ฐ๋ฅผ ์๋ฏธํ๋ค. ๋ฐ๋ผ์, ์ ๊ทธ๋ฆผ์ ๊ฐ๊ฐ X์ถ๊ณผ Y์ถ์ ๊ธฐ์ ๋ก ์ฌ์ํ ๊ฒ์ด๋ฉฐ, ์ด๋ค์ ๊ฐ๊ฐ ์ฌ์ ์ ์ ๋ฐ์ดํฐ์ ๋ถ์ฐ์ ๋ณด์กดํ๋ ๊ฒ์ ํ์ธํ ์ ์๋ค.
PCA๋, ์ฌ์ ํ ๊ฐ๋ฅํ ํ ๋ง์ ๋ถ์ฐ์ ๋ณด์กดํ ์ ์๋ ๊ธฐ์ ๋ค์ ์งํฉ์ ๊ตฌํ๋ ๊ฒ (find a set of basis that can preserve the variance as much as possible after the projection on the basis) ์ ๋ชฉ์ ์ผ๋ก ํ๋ค.
(์ฐธ๊ณ ) Covariance Matrix
-
์ ์ :
๋ ๋ณ์ ์ด์์ ๋ค๋ณ๋ ๊ฐ๋ค ๊ฐ์ ๊ณต๋ถ์ฐ๋ค์ ํ๋ ฌ๋ก ํํํ ๊ฒ์ ์๋ฏธํ๋ค.
๐ก ๊ณต๋ถ์ฐ ์์
๐ก 2๋ณ๋, 3๋ณ๋ ๊ณต๋ถ์ฐ ํ๋ ฌ
-
ํ๊ธฐ :
- X:X :X: column-wise ๋ฐ์ดํฐ์ (d x n ; d๋ ๋ณ์์ ์, n์ record์ ์)
- Covโก(X):1n(XโXห)(XโXห)T,(ย dรn)โ(nรd)=(dรd)\operatorname{Cov}(X):\frac{1}{n}(X-\bar{X})(X-\bar{X})^{T}, (\mathrm{~d} \times n) *(n \times \mathrm{d})=(\mathrm{d} \times \mathrm{d})Cov(X):n1โ(XโXห)(XโXห)T,(ย dรn)โ(nรd)=(dรd)
-
ํน์ง :
- ๋์นญํ๋ ฌ
Covโก(Xij)=Covโก(Xji)\operatorname{Cov}(X_{ij}) = \operatorname{Cov}(X_{ji})Cov(Xijโ)=Cov(Xjiโ)
- ๋ฐ์ดํฐ์ ์ ์ด ๋ถ์ฐ๋ = ๋๊ฐํ๋ ฌ์ ํฉ
trโก(Covโก(X))=Covโก(X)11+Covโก(X)22+โฏ+Covโก(X)dd\operatorname{tr}(\operatorname{Cov}(X))=\operatorname{Cov}(X)_{11}+\operatorname{Cov}(X)_{22}+\cdots+\operatorname{Cov}(X)_{d d}tr(Cov(X))=Cov(X)11โ+Cov(X)22โ+โฏ+Cov(X)ddโ
(์ฐธ๊ณ ) Projection
-
์ ์ :
ํ ์ ์์ ํ ์ง์ ๋๋ ํ ํ๋ฉด์ ์์ ์ ๋ฐ์ ๋ด๋ฆด ๋ ์ด๋ฅผ Projection(์ฌ์)ํ๋ค๊ณ ํ๋ค.
(์ฐธ๊ณ ) Eigen-Value & Eigen-Vector
- ํ๋ ฌ A๊ฐ ์ฃผ์ด์ก์ ๋, ๋ค์์ ๋ง์กฑํ๋ ์ค์นผ๋ผ ฮป ๊ฐ๊ณผ ๋ฒกํฐ x๋ฅผ ๊ฐ๊ฐ ๊ณ ์ ๊ฐ(Eigen-Value)๊ณผ ๊ณ ์ ๋ฒกํฐ(Eigen-Vector)๋ผ๊ณ ์ ์ํ๋ค.
Ax=ฮปxโ(AโฮปI)x=0\mathbf{A x}=\lambda \mathbf{x} \quad \rightarrow \quad(\mathrm{A}-\lambda \mathrm{I}) \mathbf{x}=0Ax=ฮปxโ(AโฮปI)x=0
- ๋ฒกํฐ์ ํ๋ ฌ์ ๊ณฑํ๋ค๋ ๊ฒ์
์ ํ๋ณํ(linear transformation)
์ ์ํํ๋ค๋ ๊ฒ์ด๋ค. ๋ฐ์ ๊ทธ๋ฆผ์ ๋ณด๋ฉด ํฌ๊ธฐ๋ง ๋ฐ๋๊ณ ๋ฐฉํฅ์ด ๋ฐ๋์ง ์๋ ๋ฒกํฐ(ํ๋, ํํฌ)๊ฐ ์๋ ๊ฒ์ ํ์ธํ ์ ์๋๋ฐ ์ด๋ฅผ โ๊ณ ์ ๋ฒกํฐโ๋ผ๊ณ ํ๊ณ , ์ด๋ ํฌ๊ธฐ๊ฐ ฮป๋ฐฐ ๋ฐ๋ ๊ฒ์ ํ์ธํ ์ ์๋๋ฐ ์ด๋ฅผ โ๊ณ ์ ๊ฐโ์ด๋ผ๊ณ ํ๋ค.
-
ํ๋ ฌ A (dxd)๊ฐ ์ญํ๋ ฌ์ด ์กด์ฌํ๋ค๋ฉด, ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ๋ ๋ค์ ์ฑ์ง์ ๊ฐ๋๋ค.
โ d๊ฐ์ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ ์์ ๊ฐ๋๋ค.
โก ๊ณ ์ ๋ฒกํฐ๋ค์ ์๋ก ์ง๊ตํ๋ค. (eiiโ ei=0,ย ifย eiโ ej)\left(e_{i}{ }_{i} \cdot e_{i}=0, \text { if } e_{i} \neq e_{j}\right)(eiโiโโ eiโ=0,ย ifย eiโ๎ โ=ejโ)
โข trโก(A)=ฮป1+ฮป2+ฮป3+โฏ+ฮปd=โi=1dฮปi\operatorname{tr}(A)=\lambda_{1}+\lambda_{2}+\lambda_{3}+\cdots+\lambda_{d}=\sum_{i=1}^{d} \lambda_{i}tr(A)=ฮป1โ+ฮป2โ+ฮป3โ+โฏ+ฮปdโ=โi=1dโฮปiโ
PCA Procedure
[1] Data Centering
- ํ๊ท ์ 0์ผ๋ก ๋ง์ถ๋ค. Xโฒ=XโXหX^{\prime}=X-\bar{X}Xโฒ=XโXห ์ด๋ผ๊ณ ํ๋ฉด, Xโฒห\bar{X^{\prime}}Xโฒห๋ 0์ด ๋๋ค.
- ์์ ์๊ฐํ Covโก(X)=1n(XโXห)(XโXห)T\operatorname{Cov}(X)=\frac{1}{n}(X-\bar{X})(X-\bar{X})^{T}Cov(X)=n1โ(XโXห)(XโXห)T์ (XโXห)(X-\bar{X})(XโXห) ๊ณผ์
- ๋ค์์๋ ์ ์์ฑ์ ํธ์๋ฅผ ์ํด Xโฒ=XX^{\prime}=XXโฒ=X๋ก ํ๊ธฐํจ
[2] Formulation
- ์์์ ๋ง๋ค์ด์ง X(Xโ)์ ๋ํ์ฌ ๋ฒกํฐ(ํ๋ ฌ) X๋ฅผ ๊ธฐ์ w์ ์ ์ฌ์ ์ํค๋ฉด, Cov(X) ์์ด ๋ค์๊ณผ ๊ฐ์ด ๋ฐ๋๊ฒ ๋๋ค.
- ์ด๋ S๋ ํ๋ณธ ๋ถ์ฐ์ sample covariance matrix๊ฐ ๋๋ค. ( โต ์ด๋ฏธ centering ์์ ์ ์ํํ๊ธฐ ๋๋ฌธ์ )
V=1n(wTX)(wTX)T=1nwTXXTw=wTSwV=\frac{1}{n}\left(\mathbf{w}^{\mathrm{T}} \mathbf{X}\right)\left(\mathbf{w}^{\mathrm{T}} \mathbf{X}\right)^{\mathrm{T}}=\frac{1}{n} \mathbf{w}^{\mathrm{T}} \mathbf{X} \mathbf{X}^{\mathrm{T}} \mathbf{w}=\mathbf{w}^{\mathrm{T}} \mathbf{S} \mathbf{w}V=n1โ(wTX)(wTX)T=n1โwTXXTw=wTSw
[3] Optimization
- PCA์ ๋ชฉ์ ์ธ ๋ถ์ฐ์ ์ต๋ํํ๋ ๋ชฉ์ ์ ๋ฐ๋ผ์ ์ต์ ํ ์์ ๋ค์๊ณผ ๊ฐ์ด ๋ํ๋ด์ง ์ ์๋ค.
maxโกwTSwย s.t.ย wTw=1\begin{gathered} \max \mathbf{w}^{\mathrm{T}} \mathbf{S} \mathbf{w} \ \text { s.t. } \mathbf{w}^{\mathrm{T}} \mathbf{w}=1 \end{gathered}maxwTSwย s.t.ย wTw=1โ
[4] Solve
- ์์์ ๊ตฌํ ์ต์ ํ์์ ๋ฐ๋ก ํ ์๊ฐ ์์ผ๋ฏ๋ก, Lagrange Multiplier(๋ผ๊ทธ๋์ฃผ ์น์๋ฒ)์ ์ด์ฉํ์ฌ ํ ์ ์๋ค.
๐ก ์ฌ๊ธฐ์ ์ ๊น! Lagrange Multiplier๋?
ใ ค๋ผ๊ทธ๋์ฃผ ์น์๋ฒ (Lagrange multiplier method)์ ๊ธฐ๋ณธ ๊ฐ์ ์ โ์ ์ฝ ์กฐ๊ฑด g(x,y) = c๋ฅผ ๋ง์กฑํ๋ f(x,y)์ ์ต์๊ฐ ๋๋ ์ต๋๊ฐ์ f(x,y)์ g(x,y)๊ฐ ์ ํ๋ ์ง์ ์ ์กด์ฌํ ์๋ ์๋ค.โ๋ ๊ฒ์ด๋ค. ์ด๋, f(x,y)์ g(x,y)๊ฐ ์ ํ๋ ์ง์ ์ ์ฐพ๊ธฐ ์ํด gradient vector(โฝ)์ ์ด์ฉํ๋ค. ์ด๋ ํ ์ง์ ์์ ์ ์ ๋ฒกํฐ์ gradient vector์ ๋ด์ ์ 0์ด ๋๊ฒ ๋๋ค. ๋ฐ๋ผ์, ๋ ํจ์ f์ g๊ฐ ์ ํ๋ค๋ ๊ฒ์ ๋ ํจ์์ gradient vector๋ ์๋ก ์์๋ฐฐ์ ๊ด๊ณ์ ์๋ค๊ณ ํ ์ ์๋ค. ๋ค์ ๊ทธ๋ฆผ์ ๋ณด๋ฉด ์ด๋ฅผ ํ์ธํ ์ ์๋ค. ์ด๋ฅผ ์์ผ๋ก ๋ํ๋ด๋ฉด ๋ค์๊ณผ ๊ฐ๋ค: โฝf=ฮปโฝg
ใ ค๋ผ๊ทธ๋์ฃผ ์น์๋ฒ์์๋ ๋ค์๊ณผ ๊ฐ์ด ํจ์๋ฅผ ์ ์ํ๊ณ , L(x,y,ฮป)=ฮป(g(x,y)-c) ๋ก ์ ์ํ๊ณ , ํจ์ L์ gradient vector๊ฐ ์๋ฒกํฐ๊ฐ ๋๋ ์ ์ ์ฐพ์ผ๋ฉด ๋ ํจ์ f์ g๊ฐ ์ ํ๊ฒ ๋๋ ์ ์ ์ฐพ์ ์ ์๊ฒ ๋๋ค.
ใ ค์์์ ์ ์ํ ์์ ํ์ด๋ณด๋ฉด, ํจ์ L์ gradient vector๊ฐ ์๋ฒกํฐ๊ฐ ๋๋ ์ ์ ์ฐพ์ผ๋ฉด ๋ ํจ์ f์ g๊ฐ ์ ํ๋ ์ ์ ์ฐพ์ ์ ์๋ค. ํจ์ L์ x์ y์ ๋ํด ํธ๋ฏธ๋ถํ๋ฉด ์ด 2๊ฐ์ ์์ ์ป์ ์ ์์ผ๋ฉฐ, ์ฌ๊ธฐ์ ์ ์ฝ ์กฐ๊ฑด์ธ g(x,y)=c๋ฅผ ์ด์ฉํ๋ฉด ๋ฏธ์ง์๊ฐ 3๊ฐ(x,y,ฮป)์ธ ๋ฌธ์ ์ ํด (solution)๋ฅผ ๊ตฌํ ์ ์๋ค. ์ฌ๊ธฐ์์ ๊ตฌํ x์ y๋ ์ ์ฝ ์กฐ๊ฑด g๋ฅผ ๋ง์กฑํ๋ ํจ์ f์ ์ต์ ์ ์ด ๋ ๊ฐ๋ฅ์ฑ์ด ์๊ฒ ๋๋ค.
- ์์์ ๋์ถํ maximize ๋ชฉ์ ํจ์์ ์ ์ฝ์์ ์ด์ฉํ์ฌ Lagrange Multiplier(๋ผ๊ทธ๋์ฃผ ์น์๋ฒ)์ ์ ์ฉํ๋ฉด ๋ค์๊ณผ ๊ฐ์ ์์ด ๋์ค๊ฒ ๋๋ค.L=wTSwโฮป(wTwโ1)L=\mathbf{w}^{T} \mathbf{S} \mathbf{w}-\lambda\left(\mathbf{w}^{T} \mathbf{w}-1\right)L=wTSwโฮป(wTwโ1)
โLโw=0โSwโฮปw=0โ(SโฮปI)w=0\frac{\partial L}{\partial \mathbf{w}}=0 \Rightarrow \mathbf{S} \mathbf{w}-\lambda \mathbf{w}=0 \Rightarrow(\mathbf{S}-\lambda \mathbf{I}) \mathbf{w}=0โwโLโ=0โSwโฮปw=0โ(SโฮปI)w=0
- ๊ฒฐ๊ตญ ์ฃผ์ฑ๋ถ ๋ถ์์ ํด๋ w๋ S์ eigenvector, ฮป๋ S์ eigenvalue ๊ฐ ๋๋ค. ๋ค์์ ์ค์ ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ง๊ณ ํด๋น ๊ฐ์ ๋์ถํด๋ณธ ์์์ด๋ค.
[5] Find the best set of basis
- ๋ถ์ฐ ๊ณ์ฐ์ ํตํ ์ต์ ์ ๊ธฐ์ (basis)๋ฅผ ์ฐพ์ ์ ์๋ค.
- ์์์ ๊ตฌํ eigenvalue๋ฅผ ๋ด๋ฆผ์ฐจ์์ผ๋ก ๋์ดํ๋ฉด ๋ค์๊ณผ ๊ฐ์ด ๋ํ๋ผ ์ ์๋ค.
- ์ด ์ค ๊ฐ์ฅ ํฐ eigenvalue๋ฅผ ฮป1, ๊ฐ๋ eigen vector๋ฅผ w1์ด๋ผ๊ณ ํ๋ฉด, ํด๋น w1์ projection๋ ๋ถ์ฐ๋(variation)์ ๋ค์๊ณผ ๊ฐ์ด ๊ตฌํ ์ ์๋ค.
v=(w1TX)(w1TX)T=w1TXXTw1=w1TSw1\mathbf{v}=\left(\mathbf{w}_{1}^{T} \mathbf{X}\right)\left(\mathbf{w}_{1}^{T} \mathbf{X}\right)^{T}=\mathbf{w}_{1}^{T} \mathbf{X} \mathbf{X}^{T} \mathbf{w}_{1}=\mathbf{w}_{1}^{T} \mathbf{S} \mathbf{w}_{1}v=(w1TโX)(w1TโX)T=w1TโXXTw1โ=w1TโSw1โ Since,ใ คSw1=ฮป1w1,w1TSw1=w1Tฮป1w1=ฮป1w1Tw1=ฮป1Since,ใ ค\mathbf{S w}_{1}=\lambda_{1} \mathbf{w}_{1}, \quad \mathbf{w}_{1}^{T} \mathbf{S} \mathbf{w}_{1}=\mathbf{w}_{1}^{T} \lambda_{1} \mathbf{w}_{1}=\lambda_{1} \mathbf{w}_{1}^{T} \mathbf{w}_{1}=\lambda_{1}Since,ใ คSw1โ=ฮป1โw1โ,w1TโSw1โ=w1Tโฮป1โw1โ=ฮป1โw1Tโw1โ=ฮป1โ
- ๋ฐ๋ผ์, ์ด๋ ๊ฒ w1์ ์ฌ์์ํจ variation(v)์ ๊ฐ์ด ฮป1์ธ ๊ฒ์ ํ์ธํ๊ณ , ์ผ๋งํผ ํด๋น PC(principal component)๊ฐ original variance๋ฅผ ๋ณด์กดํ๋ ๊ฐ๋ ๋ค์์์ ํตํด ํ์ธํ ์ ์๋ค. ์ด๋ฅผ ํตํด ํด๋น ์ฃผ์ฑ๋ถ์ 2์ฐจ์ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ํ๋ฉด ์-๋ฐ์ดํฐ์ ๋ถ์ฐ์ 96%๋ฅผ ๋ณด์กดํ๋ค๋ ๊ฒ์ ํ์ธํ ์ ์๋ค.ฮป1ฮป1+ฮป2=1.28401.2840+0.0491=0.9632โฆ\frac{ฮป_{1}}{ฮป_{1}+ฮป_{2}}=\frac{1.2840}{1.2840+0.0491}=0.9632โฆฮป1โ+ฮป2โฮป1โโ=1.2840+0.04911.2840โ=0.9632โฆ
[6] Extraction and Reconstruction
-
์ฃผ์ฑ๋ถ(๊ธฐ์ )์ ์ด์ฉํด ์๋ก์ด ๋ณ์ ์์ฑ ๋ฐ ์ด๋ฅผ ๋ค์ ๋ณต์ํ ์ ์๋ค.
(2์ฐจ์ -> 1์ฐจ์ -> 2์ฐจ์)
-
์ด๋, ์๋ฒฝํ๊ฒ๋ ๋ณต์๋์ง๋ ์๋๋ค. ์ฌ๊ตฌ์ถ ์ค์ฐจ๊ฐ ์กด์ฌํ๋๋ฐ, ๋ค์ anomaly detection์์ ์ฌ์ฉํ ์ ์๋ค.
-
๊ทธ๋ ๋ค๋ฉด ๋ช ๊ฐ์ Principal Component(PC)๊ฐ ์ต์ ์ผ๊น? (์ ํํ ๋ต์ ์๋คใ )
โ โ์ ์ฑ์ ์ผ๋ก ๋๋ฉ์ธ ์ ๋ฌธ๊ฐ๊ฐ ๋ช ๊ฐ๊ฐ ์ข์!โํ๊ณ PC์ ๊ฐ์๋ฅผ ์ ํด์ค ์ ์๋ค.
โก โ์ ๋์ ์ผ๋ก ์๋ ๋ณ์์ ๋ช ํผ์ผํธ๊ฐ ๋ณด์กด๋์๋๊ฐโ๋ฅผ ๊ธฐ์ค์ผ๋ก PC์ ๊ฐ์๋ฅผ ์ ํ ์ ์๋ค.
- Scree Plot์ ๋์ํํ์ฌ, โ ๊ฐ๊ฐ์ PC์ ๋ํ variance๋ฅผ ๊ตฌํ์ฌ elbow point(๊ธ๊ฒฉํ๊ฒ ๊ฐ์ํ๋ ๊ตฌ๊ฐ)๋ฅผ ์ฐพ๊ฑฐ๋, โก ๋์ ์ค๋ช ๋ ฅ N%๊ธฐ์ค ์ค์ ์ ํตํด ์ต์ ์ PC์ ๊ฐ์๋ฅผ ๊ตฌํ ์ ์๋ค.
PCA Limitation
- ํต๊ณ์ ์ผ๋ก ์ถ๋ฐํ ๋ชจ๋ธ์ด๊ธฐ ๋๋ฌธ์ ๊ฐ์ฐ์์ ๋ถํฌ๋ฅผ ๊ฐ์ ํ๋ค. ๊ทธ๋ ๊ธฐ ๋๋ฌธ์ ๊ฐ์ฐ์์ ๋ถํฌ๊ฐ ์๋ ๋ฐ์ดํฐ์๋ ์ ์๋๋์ง ์์ ์ ์๋ค.
- ๋ถ์ฐ์ ์ต๋ํ ๋ณด์กดํ๋ ๋ฐฉ์์ผ๋ก ํ์ต์ ์งํํ๋ฏ๋ก, ๋ถ๋ฅ ๋ชจ๋ธ์๋ ์ ๋นํ์ง ์๋ค. (์๋ ๊ทธ๋ฆผ ์ฐธ๊ณ )
๊ธด ๊ธ ์ฝ์ด์ฃผ์ ์ ๊ฐ์ฌํฉ๋๋ค ^~^