๐ ์ ๋ฒ ์๊ฐ์ coefficient ๋ ์ข ๋ฅ Pearson๊ณผ Spearman์ ๋ํด์ ๊ณต๋ถํ์๋ค!
๐ correlation ๊ด๋ จ ์ํ & ์ ๋ ๊ธฐ์ด ๊ฐ๋ span, basis, rank ๊ทธ๋ฆฌ๊ณ ์์ฉํ projection ๊ฐ๋ ๊น์ง ์ด๋ฒ ํฌ์คํ ์ผ๋ก ๊ฐ๋จํ ์์๋ณดZA
๐ ๋ชจ๋ data๋ฅผ ์ขํ๊ณต๊ฐ์ vector์์ผ๋ก ๋ํ๋ผ ์ ์๋ค. ๋ ์ฌ๋ฌ ์ข ๋ฅ์ data, ์ฆ ์ฌ๋ฌ ๊ฐ์ vector๊ฐ ๋ชจ์ด๋ฉด matrix ํํ๋ก ํํ์ด ๊ฐ๋ฅ!
1> span
๐ span - '์ฃผ์ด์ง ๋ ๋ฒกํฐ์ (ํฉ์ด๋ ์ฐจ์ ๊ฐ์) ์กฐํฉ์ผ๋ก ๋ง๋ค ์ ์๋ ๋ชจ๋ ๊ฐ๋ฅํ ๋ฒกํฐ์ ์งํฉ'
๐ correlation posting์์ ์๋ก ๋ ๋ณ์๊ฐ correlation ๊ด๊ณ๊ฐ ์์ ์์์ vector ์์ผ๋ก ๋ vector๊ฐ ์ง๊ตํจ์ ํตํด ํํํ ์ ์๋ค๊ณ ํ์๋ค. ์ฌ๊ธฐ์ vector๋ผ๋ฆฌ์ ๊ด๊ณ๋ฅผ ํฌ๊ฒ ๋ ๊ฐ์ง, ์ ํ๊ด๊ณ์ ์๋ค(linearly dependent) & ์ ํ๊ด๊ณ๊ฐ ์๋ค(linearly independent)๋ก ํํํ ์ ์๋ค.
๐ 1) ์ ํ ๊ด๊ณ์ ์๋ vector ์งํฉ> ์ด ๋์ vector๋ค์ span์ ํ ํ๋ฉด์ด ์๋, vector๋ค์ด ๊ฒน์ณ ์ฌ๋ ค์ ธ ์๋ ์ ์ผ๋ก ์ ํ๋๋ค
๐ 2) ๋น์ ํ๊ด๊ณ์ ์๋ vector ์งํฉ> vector๋ค์ ์ ํ์ ์ผ๋ก ๋ ๋ฆฝ๋์๋ค๊ณ ๋งํ๋ฉฐ ์ฃผ์ด์ง ๊ณต๊ฐ(2๊ฐ์ ๋ฒกํฐ์ ๊ฒฝ์ฐ $R^2$ํ๋ฉด)์ ๋ชจ๋ vector๋ฅผ ์กฐํฉ์ ํตํด ๋ง๋ค์ด ๋ผ ์ ์๋ค
2> basis
๐ basis๋ span์ ์ญ๊ฐ๋ ์ด๋ค. V๋ผ๋ vector space ๋ฒกํฐ๊ณต๊ฐ์ S set์ด๋ผ๋ ์ฃผ์ด์ง ์ฌ๋ฌ vector๋ค์ ์งํฉ - S๊ฐ ์กด์ฌํ๋๋ฐ, ์ด vector๋ค(S set)์ด V๋ผ๋ ๋ฒกํฐ๊ณต๊ฐ์ ์ํ basis๋ฅผ ๋ง์กฑํ๊ธฐ ์ํด์๋, ์ฆ S set์ด V๋ผ๋ vector space๋ฅผ ์ํ basis๊ฐ ๋ ๋ ค๋ฉด
๐ โ S set์ด V vector space ๊ณต๊ฐ์ span(ํฌ๊ด) ํด์ผ ํจ - ์ฆ, vector space ๋ด๋ถ ์ ์ฒด๋ฅผ ํฌ๊ดํด์ผ ํจ
๐ โก ๊ทธ๋ฆฌ๊ณ S set์ด ์ ํ์ ์ผ๋ก ๋ ๋ฆฝ์ด์ด์ผ ํจ (์ฆ, S set ๋ด vector๋ค์ด ์๋ก ๋ ๋ฆฝ. ์๋ก ๊ฐ์ ์ ์์ ์์ผ๋ฉด ์๋จ)
๐ ๋ฐ๋ผ์, basis์ ์ ์์ ์ํด, ๋ฒกํฐ ๊ณต๊ฐ V์ basis๋ V๋ผ๋ ๊ณต๊ฐ์ ์ฑ์ธ ์ ์๋ ์ ํ ๊ด๊ณ์ ์์ง ์์ ๋ฒกํฐ๋ค์ ๋ชจ์์ด๋ค
๐ orthogonal basis>
→ basis์ ์ถ๊ฐ๋ก orthogonal(์์ง)ํ ์กฐ๊ฑด์ด ๋ถ๋, ์ฃผ์ด์ง ๊ณต๊ฐ์ ์ฑ์ธ ์ ์๋ ์๋ก ์์ง์ธ vector๋ค์ ๋งํจ
→ basis ๋ด์ vector๋ค์ด ์๋ก ์์ง
๐ orthonormal basis>
→ orthogonal basis์ ์ถ๊ฐ๋ก normalizedํ ์กฐ๊ฑด์ด ๋ถ์ ๊ฒ์ผ๋ก, ๊ธธ์ด๊ฐ 1์ธ vector๋ค์ ๋งํ๋ค
→ basis ๋ด์ vector๋ค์ด ์๋ก ์์ง & vector length๊ฐ ๋ชจ๋ 1์ผ ๋
3> rank
๐ผ matrix์ ๊ตฌ์ฑ๋๋ vector๋ค๋ก ๋ง๋ค ์ ์๋ ๊ณต๊ฐ(span)์ ์ฐจ์์ rank๋ผ ํ๋ค
๐ผ matrix์ ์ฐจ์ ≠ matrix์ rank
→ ์ด์ ๋ matrix๋ฅผ ๊ตฌ์ฑํ๋ vector๋ค ์ค์ ์๋ก linearly dependentํ ๊ด๊ณ๋ ์์ ์ ์๊ธฐ ๋๋ฌธ์ด๋ค!
๐ผ gaussian elimination์ ํตํด matrix์ rank ํ์ธ ๊ฐ๋ฅ
๐ gaussian elimination ๐
๐ผ ์ฃผ์ด์ง matrix๋ฅผ row-echelon form์ผ๋ก ๋ฐ๊พธ๋ ๊ณ์ฐ๊ณผ์
→ row-echelon form์ ๊ฐ ํ์ ๋ํด์ ์ผ์ชฝ์ 1, ๊ทธ ์ดํ ๋ถ๋ถ์ 0์ผ๋ก ์ด๋ค์ง ํํ
→ ์ฆ, ๊ฐ ํ์ ์์๋ถ๋ถ์ด '0์ ๋์ด + 1'์ ํํ์ฌ์ผ ํจ
→ row-echelon form์ ์ผ๋ฐ์ ์ผ๋ก upper-triangular ํํ๋ฅผ ๊ฐ์ง matrix์
- row-echelon formํํ๋ก ๋ฐ๊พธ๋ ๊ณ์ฐ๊ณผ์ (ํ๋จ) -
์๋ ์์ ๊ฒฝ์ฐ ๋งจ ๋ง์ง๋ง ์ค์ด 0์ผ๋ก๋ง ๋์ด ์์ด ํด๋น matrix P์ rank๋ 3์ด ์๋, 2์ด๋ค!
๐ผ ์ฌํด์> 'matrix์ rank๊ฐ x์ด๋ค' = 'ํด๋น matrix๋ฅผ ๊ตฌ์ฑํ๋ ๋ชจ๋ vector๋ค์ ํตํด $R^x$ ๊ณต๊ฐ๋ง์ vector๋ก ๋ง๋ค์ด๋ผ ์ ์๋ค'๋ ๋ป
w/code
โ numpy.linalg.matrix_rank docuโ
https://numpy.org/doc/stable/reference/generated/numpy.linalg.matrix_rank.html
from numpy.linalg import matrix_rank
linalg.matrix_rank(A, tol=None, hermitian=False)
→ ์ง์ parameter A์ rank๋ฅผ ๊ตฌํ๊ณ ์ ํ๋ matrix๋ฅผ ์ง์ด๋ฃ์ผ๋ฉด ์ํ๋ rank๊ฐ ๋์จ๋ค
4> linear projection>
๐ธ (2์ฐจ์ ๊ณต๊ฐ) vector w๋ฅผ ์ L๋ก ํฌ์๋ ๊ฒฐ๊ณผ๋ก ๋์จ vector๋ฅผ ๐๐๐๐๐ฟ(๐ค)๋ผ๊ณ ํ๋ค / ์ด ๋ vector v๋ฅผ ์ L์์ ๋จ์ vector๋ผ๊ณ ํ๋ฉด,,
- ์๋์ ๊ฐ์ด ํํ ๊ฐ๋ฅ! -
๐ธ for feature reduction
→ projection์ ํตํด ์ฌ๋ฌ vector๋ค์ ํ line ์ ์ผ๋ก ๋ด๋ฆผ์ผ๋ก์จ data ์ ์ฅ ๊ณต๊ฐ๋ ์ค์ด๊ณ , data ๋ณต์ก์ฑ๋ ์ค์ด๋ ํํ๋ค์ ๋๋ฆด ์ ์๋ค!
๐ธ ์ ์์ w์ v์ ๊ณฑ์ ๋ํด ๋์ดํ๋ฉด projection๋ ๋ฒกํฐ์ ํฌ๊ธฐ์ ํ ๋ฒกํฐ์ ํฌ๊ธฐ์ ๊ณฑ์ผ๋ก ํํ ๊ฐ๋ฅ
w/ dot product
๐ธ ex) vector v [3, 1]์ vector w [-1, -2] ๋ฅผ ๊ณฑํ ๊ฒฐ๊ณผ(dot product)๋ vector v์ ๊ธธ์ด์ vector w๋ฅผ v์ projectionํ(๐๐๐๐w(v)์ ๊ธธ์ด) ๊ฒฐ๊ณผ์ ๊ธธ์ด๋ฅผ ๊ณฑํ ๊ฒ๊ณผ ๊ฐ๋ค
→ ๋ง์ฝ v์ w๊ฐ ์๋ก ๋ค๋ฅธ ๋ฐฉํฅ์ด๋ผ๋ฉด (-1)์ ๊ณฑํด์ฃผ๋ฉด ๋๋ค
๐ธ ์๋ ๊ทธ๋ฆผ ์ฐธ์กฐ
→ ์ฆ, ๋ค์ ๋งํ๋ฉด (๋ฒกํฐ a์ ๋ํ ๋ฒกํฐ b์ ์ ์ฌ์ ํฌ๊ธฐ) * (๋ฒกํฐ a์ ํฌ๊ธฐ) = ๋ฒกํฐ a์ ๋ฒกํฐ b์ dot product
w/code
Q. ์์์ vector v์ w๊ฐ ์๋ค๊ณ ํ ๋ ๋ฒกํฐ v๋ฅผ ๋ฒกํฐ w์ projectiongํ ๊ฒฐ๊ณผ
์๊ธด projected vectorํฌ๊ธฐ์ projected vector x์ y์ฑ๋ถ ๊ฐ๊ฐ์ ์ถ๋ ฅํ๋ function์ ๋ง๋ค์
def myProjection_norm(v, w):
#v๋ฅผ w์ project
value = np.dot(v,w)/np.linalg.norm(w)
return value
def myProjection_coordinates(v, w):
#v๋ฅผ w์ project
value = np.dot(v,w)/np.linalg.norm(w)
hat = w / np.linalg.norm(w)
return value*hat
* ์ธ๋ค์ผ ์ถ์ฒ> https://ko.wikipedia.org/wiki/%EC%84%A0%ED%98%95%EB%8C%80%EC%88%98%ED%95%99
* ์ถ์ฒ> w/dot product https://blog.naver.com/PostView.nhn?isHttpsRedirect=true&blogId=ao9364&logNo=221542210272
* ์ถ์ฒ> linear projection https://www.youtube.com/watch?v=LyGKycYT2v0
'Math & Linear Algebra > Concepts' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
Odds Ratio & log(Odds Ratio) (0) | 2022.07.11 |
---|---|
eigenvalue & eigenvector (0) | 2022.05.14 |
Pearson & Spearman correlation coefficients (0) | 2022.05.13 |
Cramer's Rule (+exercise) (0) | 2022.05.09 |
Basic Derivative - ๋ฏธ๋ถ ๊ธฐ์ด (0) | 2022.04.18 |
๋๊ธ