bias and Variance ( 편향과 분산 ) 어느것에 치중하여 모델을 설정할 것인가 ?
- 이 두가지중는 목적에 따라 좋은 성능의 모델을 만드는데에 꼭 필요한 개념입니다.
- 이 두가지는 tradeoff(트레이드오프) 관계입니다. ( 한가지가 높으면, 다른한가지는 줄어듭니다. )
- Hight Variance , low Bias ==> overfitting
- Low variance , High Bias ==> underfitting
1. 이미지와 함께 설명
=> variance가 증가하게 된다면 , 데이터의 점들의 분산은 예측력을 좀 더 떨어뜨린다.
=> 그리고 bias가 커지게 된다면 실제값과 예측값의 오차는 커진다.
그럼 어떻게?
=> 모형에 더 많은 변수를 넣게 되면 복잡성은 증가하고, variance는 늘어나고 bias는 줄게 되는 영향
=> 최적의 point를 찾아야 한다. ( bias의 감소가 variance의 증가와 같아지는 )
=> 방법의는 모델의 복잡도를 줄이거나 , 정규화(Regularization)를 통해서
참고자료
'Machine Learning' 카테고리의 다른 글
Generalized linear Model ( 일반화 선형모델 - GLM ) 개념 및 python 예제 (0) | 2019.10.09 |
---|---|
Decision Tree Classification ( 의사결정분류) 개념과 python 예제 (0) | 2019.10.09 |
ML에서 모델 결합 - Bagging과 Boosting 개념설명 (0) | 2019.10.09 |
Decision Tree Regression (의사결정나무) 개념과 python 예제 (0) | 2019.10.09 |
Machine Learning Study List (0) | 2019.10.09 |