Bias-Variance Trade-Off
Bias-variance trade-off 모델의 일반화 오차는 모델의 $Bias^2$와 $Variance$과 데이터의 $noise$의 합으로 표현된다.
Eigenvalue and eigenvector
Eigenvalue와 eigenvector는 시간에 따라 변하는 함수값을 예측하는 자기회귀모델(AutoRegressive model)에서 함수값이 수렴하는지의 여부를 결정합니다.
Linear regression
Remarks
본 포스팅은 Hands-On Machine Learning with Scikit-Learn & TensorFlow (Auérlien Géron, 박해선(역), 한빛미디어) 를 기반으로 작성되었습니다.
Computational complexity of ML algorithms
sklearn 등에서 구현된 machine learning algorithm들은 굉장히 최적화가 잘 되어 손으로 계산하는 naive한 복잡도보다 훨씬 더 빠르게 작동하도록 구현되어 있습니다.
예를 들어, 정규방정식의 복잡도는 $O(mn^2)$으로 알려져 있지만 실제론 $O(m^{0.72}n^{1.3})$ 정도의 복잡도까지 최적화되어있습니다.
자세한 내용은 https://www.thekerneltrip.com/machine/learning/computational-complexity-learning-algorithms/을 참조!
Gradient of linear regression
Gradient 다변수 함수에 대한 일차 편미분 벡터입니다. Gradient의 방향은 함수값이 가장 크게 변하는 방향을 가리키고, gradient의 크기는 변화량의 크기를 나타냅니다.
Data augmentation
인위적으로 학습 데이터를 변형시켜 추가의 학습 데이터로 사용하는 기법을 data augmentation (데이터 증식), training set expansion이라고 합니다.
Warm start
Remarks
본 포스팅은 https://scikit-learn.org/stable/glossary.html#term-warm-start 를 기반으로 작성되었습니다.
389 post articles, 49 pages.