반응형 xgboost1 XGBoost, LightGMB, CatBoost XGBoost Subsample설정에 따라 비복원 SamplingSampling 한다는 점 외에는 부스팅은 랜덤포레스트와 동일하다 Subsample : 각 반복구간마다 샘플링할 입력 Data의 비율을 조정 Eta : 부스팅 알고리즘에서 αm에 적용되는 축소비율을 결정하는 것으로서 가중치변화량을 낮추어 overfitting 방지효과를 가진다. 정규화 파라미터: L1정규화, L2정규화가 있으며 Parameter를 크게 할수록 Model이 복잡해지면 더 많은 Penalty부여로 트리의 크기가 작아진다. n_estimator: 부스팅 라운드 횟수로서 eta가 작으면 학습속도가 떨어지므로 n_estimator를 늘려야 한다. overfitting방지 파라미터 설정을 포함할 경우 늘려도 무관~ max_depth: .. 2023. 8. 14. 이전 1 다음 728x90 반응형