Machine Learning29

(L1 Regularization) → LASSO Regression (concepts) 🥑 과적합 문제를 피하기 위해 기존회귀계수들의 제곱합에 λ penalty를 부과해 새로운 data에 알맞은 예측을 하게끔 해주는 Ridge 규제에 대해 배웠다. (L2 Regularization) → Ridge Regression (concepts) ** 우리는 저번 포스팅에서 Supervised Learning 중 Regression의 일종인 'linear regression'에 대해 학습했다. ☝️ 위 그림에서 보다시피 linear 선형 regression으로는 많은 종류의 model이 있음을 확인할.. sh-avid-learner.tistory.com (L2 Regularization) → Ridge Regression (w/scikit-learn) 😼 저번 포스팅에서 Ridge 회귀가 무엇인지 개.. Machine Learning/Models (with codes) 2022. 6. 23.
Adjusted R-Squared vs. R-Squared 👨🏾‍💻 예전 포스팅에서 R-Squared에 대해 다룬 적이 있었는데, 이의 한계를 보완한 adjusted r-squared와 같이 비교하면서 심층적으로 알아보도록 하자. All About Evaluation Metrics(1/2) → MSE, MAE, RMSE, R^2 ** ML 모델의 성능을 최종적으로 평가할 때 다양한 evaluation metrics를 사용할 수 있다고 했음! ** (supervised learning - regression problem에서 많이 쓰이는 평가지표들) - 과정 (5) - 😙 그러면 차근차.. sh-avid-learner.tistory.com 1> R-squared (coefficient of determination) → r-squared는 모델이 얼마나 예측력이 .. Machine Learning/Fundamentals 2022. 6. 19.
All About Evaluation Metrics (2/2) → MAPE, MPE * 예전 포스팅에서 모델을 평가하기 위한 여러 평가기준에 대해서 알아보았다. → 크게, MSE, MAE, RMSE, R^2 4가지의 평가기준에 대해서 알아보았는데, 이번에는 추가로 MAPE, MPE에 대해서 알아보려 함! All About Evaluation Metrics(1/2) → MSE, MAE, RMSE, R^2 ** ML 모델의 성능을 최종적으로 평가할 때 다양한 evaluation metrics를 사용할 수 있다고 했음! ** (supervised learning - regression problem에서 많이 쓰이는 평가지표들) - 과정 (5) - 😙 그러면 차근차.. sh-avid-learner.tistory.com 5. MAPE(Mean Absolute Percentage Error) → .. Machine Learning/Fundamentals 2022. 6. 11.
K-Means Clustering (concepts + w/code) 💙 꼭 K가 들어가서 한국 부심으로 꼭 알아야(?)할 것 만 같은 데,, 필수로 알아야 하는 개념 마즘! 💙 앞서 우리가 Unsupervised Learning의 일종으로 대표적인 clustering 개념에 대해서 배웠고, 이 중 가장 대표적인 K-Means에 대해서 알아보자! Unsupervised Learning 📌 사실 ML에서 지도학습(Supervised Learning)보다 정답이 주어져 있지 않은, 비지도학습(Unsupervised Learning) 기법이 더 까다롭고, 정답이 주어져 있지 않아서 분석에 힘이 들 때가 많다. 📌 비지도학습 sh-avid-learner.tistory.com 💙 일단 k-means는 unsupervised learning 기법 중 clustering - centr.. Machine Learning/Models (with codes) 2022. 6. 8.
Unsupervised Learning 📌 사실 ML에서 지도학습(Supervised Learning)보다 정답이 주어져 있지 않은, 비지도학습(Unsupervised Learning) 기법이 더 까다롭고, 정답이 주어져 있지 않아서 분석에 힘이 들 때가 많다. 📌 아래와 같이 label이 주어져 있지 않고 여러 개의 feature vector들의 모임을 통해 machine learning model에 집어넣는 형태이다. 📌 비지도학습(Unsupervised Learning)은 '정답이 주어져 있지 않은 data 그 자체를 머신러닝 알고리즘으로 분석하거나 클러스터링(clustering; 군집화)하는 과정'이다. intro. Machine Learning 1. 개론 → ML은 빅데이터를 분석할 수 있는 강력한 tool의 일종이다. 기존 통계학 .. Machine Learning/Fundamentals 2022. 6. 3.
PCA(w/code) 👏 저번 시간에 PCA의 개념 및 주축을 찾기까지의 자세한 과정을 여러 방면으로 분석해보고 알아보았다. PCA(concepts) * dimensionality reduction 기법 중 대표적인 방법인 PCA에 대해서 알아보자! concepts> ① 고차원의 data를 낮은 차원으로 차원 축소하는 기법 (dimensionality reduction) ② 기준이 되는 정보는 data의 분산! (분산 sh-avid-learner.tistory.com 👏 이제는 직접 code로 실행해 scree plot으로 시각화해보고 주어진 unsupervised data를 알맞게 clustering해 실제 data가 PC 축에 맞게 잘 분리가 되는지 체크해보는 과정까지 해 보려 한다! 👏 PCA에 대해서 배웠던 개념을 아.. Machine Learning/Fundamentals 2022. 5. 31.
PCA(concepts) * dimensionality reduction 기법 중 대표적인 방법인 PCA에 대해서 알아보자! concepts> ① 고차원의 data를 낮은 차원으로 차원 축소하는 기법 (dimensionality reduction) ② 기준이 되는 정보는 data의 분산! (분산을 통해 데이터가 흩어진 정도를 알 수 있기 때문) ③ 고차원 data의 정보(분산)를 최대한 유지하는 eigenvector를 찾고, 해당 vector에 대해 data를 linear projection하는 과정 - 예시 - Q. 2차원 상에 주어진 data를 1차원으로 축소하려고 할 때 아래 두 line 중 원본 data의 정보를 최대한 많이 살린 채로 축소된 것은? - 오른쪽 line을 골라야 한다! (기존 2차원 data 분산을 최대한.. Machine Learning/Fundamentals 2022. 5. 30.
Feature Selection vs. Feature Extraction 🧜‍♂️ 빅데이터의 경우 feature 수가 너무 많아서 데이터를 처리하는 데 복잡하다. 따라서 우리는 적절하게 중요 feature만 선택하거나, 기존 feature들을 재조합한 일부 feature만 선택할 수 있다. 🧜‍♂️ for dimensionality reduction.. → 모델 복잡성 감소, 과적합 현상 방지, 일반화 성능 향상, 모델 computation 효능 향상을 위해 기존 feature를 이용해 selection & extraction을 진행한다 🧜‍♂️ 데싸를 공부한다면 반드시! 거쳐가야 할, 학습해야 할 두 가지 technique - feature extraction(하단 좌) & feature selection(하단 우) - 🧜‍♂️ feature extraction은 기존의 f.. Machine Learning/Fundamentals 2022. 5. 18.
Decision Trees (concepts) 'Decision Trees (DTs) are a non-parametric supervised learning method used for classification and regression. The goal is to create a model that predicts the value of a target variable by learning simple decision rules inferred from the data features. A tree can be seen as a piecewise constant approximation.' ▩ 앞서 소개했던 model list ▩ 👓 SLR 단순선형회귀모델 👓 MLR 다중선형회귀모델 👓 RR 릿지회귀모델 👓 LR 로지스틱회귀모델 🤠 이젠 reg.. Machine Learning/Models (with codes) 2022. 4. 27.
Logistic Regression Model (w/code) 👋🏻 저번 시간에 Logistic Regression Model이 무엇인지, 기초 개념에 대해서 학습했다. (↓↓↓↓↓↓) Logistic Regression Model (concepts) ** ML 개요 포스팅에서 다룬 'supervised learning'은 아래와 같은 절차를 따른다고 했다 (↓↓↓↓하단 포스팅 참조 ↓↓↓↓) ML Supervised Learning → Regression → Linear Regression 1. ML 기법 구분 💆.. sh-avid-learner.tistory.com 🙏 이젠 python으로 model을 직접 구현해보려 한다! - binary classification problem solving을 위해 필요한 모델이라 배움 - ++ scikit-learn 사용 .. Machine Learning/Models (with codes) 2022. 4. 25.
Polynomial Regression Model * Linear Regression Model - 즉, y 종속변수와 x 독립변수(1개 또는 2개 이상)들 간의 관계가 선형인 경우를 뜻한다. 즉, x 독립변수의 증감 변화에 따라 y도 이에 상응하여 증감이 일정한 수치의 폭으로 변화한다. 🧏‍♀️ 우리는 크게 3가지의 Linear Regression Model에 대해 배웠다. 1. SLR (단순선형회귀모델) Simple Linear Regression (concepts) ** 우리는 저번시간에 Supervised Learning - Regression - Linear Regression까지 concepts에 대해 배웠다 (↓↓↓↓↓↓ 하단 포스팅 참조 ↓↓↓↓↓↓) ML Supervised Learning → Regression → Linear Regr.. Machine Learning/Models (with codes) 2022. 4. 24.
Logistic Regression Model (concepts) ** ML 개요 포스팅에서 다룬 'supervised learning'은 아래와 같은 절차를 따른다고 했다 (↓↓↓↓하단 포스팅 참조 ↓↓↓↓) ML Supervised Learning → Regression → Linear Regression 1. ML 기법 구분 💆🏽‍♂️ 답이 주어져 있는 Supervised Learning 🙅🏽 답이 주어져 있지 않은 UnSupervised Learning → Simple Linear Regression(단순선형회귀)은 답이 주어져 있는 Dependent variable & In.. sh-avid-learner.tistory.com - 지도학습의 절차 - ♣ 그리고 y label의 종류에 따라 classification & regression로 구분이 된다고 하였다.. Machine Learning/Models (with codes) 2022. 4. 24.