7. 앙상블 학습 (Ensemble Learning) 여러 weak learner를 합쳐 하나의 Strong learner 로 좀 더 객관적인 결과를 얻음(일반화 성능, 안정성 향상,에러 감소) single learner 보다 weak learner 합친것이 나음 예. Boosting, Bagging ,Stacking Ensemble 집계 방식 1> Voting 과반수 투표 (Majority voting) 다수결 투표(Plurality Voting) : 최빈값(mode) 2> Aggregating Average Ensemble model 1) Bagging(Bootstrap AGGregatING): 동일한 모델 병렬 연결하여 일반화 (in parallel) 샘플에서 복원추출(resampling)하여(Bo..