Day 4_Gradient Descent (경사하강법) / Polynomial Regression (다항 회귀) / Decision Tree (의사결정나무)
# Gradient Descent (경사하강법)
github.com/maron2ee/Machine-Learning/blob/main/ml04.ipynb
maron2ee/Machine-Learning
Contribute to maron2ee/Machine-Learning development by creating an account on GitHub.
github.com
# Decision Tree (의사결정나무)
github.com/maron2ee/Machine-Learning/blob/main/ml05.ipynb
maron2ee/Machine-Learning
Contribute to maron2ee/Machine-Learning development by creating an account on GitHub.
github.com
sklearn.tree.DecisionTreeClassifier — scikit-learn 0.23.2 documentation
scikit-learn.org
# Ensmeble 학습
각각의 모델이 약한 학습기 일지라도 충분하게 많고 다양하다면
앙상블은 높은 정확도를 내는 강한 학습기가 될 수 있다. (예측값 높아짐)
(Logistic Regression, SVM Classifier, Random Forest Classifier,,,)
#SGD Regressor
scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDRegressor.html
sklearn.linear_model.SGDRegressor — scikit-learn 0.23.2 documentation
scikit-learn.org
* parameters 참조
# Cost Function (비용 함수), Loss Function (손실 함수)
# Regulation
: 데이터에 과대적합을 방지학 위해
모델이 학습하는 데 사용되는 가중치에 규제 (regulation) 값 또는 penalty 값을 주어 과적합 되는 것을 막고,
일반화된 모델을 제공하는 방법
* Ridge regression (l2 penalty)
* Lasso regression (l1 penalty)
* Elastic Net
# Logistic Regression
sklearn.linear_model.LogisticRegression — scikit-learn 0.23.2 documentation
scikit-learn.org
비지도학습 프로젝트
SciKit-Learn을 활용한 머신러닝 모델 구현-2
- 클러스터링 알고리즘을 이용한 데이터 군집화e
TensorFlow를 활용한 머신러닝 모델 구현-3
- CNN, RNN을 이용한 딥러닝 수치예측/분류분석