Home

Ridge, Lasso regression, Elastic net

Ridge regression (Tikhonov regularization): cost funtion에 l2 regularization ($\alpha \Sigma_i \theta_i^2$)이 추가된 선형 회귀 Lasso regression: cost funtion에 l1 regularization ($ \alpha \Sigma_i \mid \theta_i \mid $)이 추가된 선형 회귀 Elastic net: cost funtion에 l1, l2 regularization을 모두 추가한 선형 회귀

Read more

Polynomial regression

비선형 데이터를 학습하는 데 선형 모델을 사용할 수 있습니다. 각 feature의 거듭제곱을 새로운 특성으로 추가하고, 이 확장된 feature를 포함한 데이터넷에 선형 모델을 훈련시키는 방법을 polynomial regression (다항 회귀)라고 합니다.

Read more

Learning curve

모델의 일반화 성능을 평가하기 위해 cross-validation이나 learning curve에 나타나는 training error와 validation error를 비교할 수 있습니다.

Read more

Early stopping

Early stopping은 iterative algorithm에서 사용할 수 있는 regularization 방법으로 validation error가 최솟값에 도달하였다고 판단되면 바로 학습을 중지하는 방법입니다.

Read more

Eigenvalue and eigenvector

Eigenvalue와 eigenvector는 시간에 따라 변하는 함수값을 예측하는 자기회귀모델(AutoRegressive model)에서 함수값이 수렴하는지의 여부를 결정합니다.

Read more

Linear regression

Remarks 본 포스팅은 Hands-On Machine Learning with Scikit-Learn & TensorFlow (Auérlien Géron, 박해선(역), 한빛미디어) 를 기반으로 작성되었습니다.

Read more