Machine Learning Model Stacking (기계학습 모델쌓기)

Kaggle. ML에 관심있는 사람은 이미 많이 들어봤을  사이트. 
(Kaggle에 대해서는 나중에 따로 소개할 기회가 있을 듯?)

다양한 자료셋을 바탕으로 전세계의 사용자들이 최적의 모델을  만들기 위해 경쟁하는 장이다.

이 Kaggle에서  최적모델을 만드는 방법 중 많이 쓰이는  방법이 이 Model Stacking이다.



이론적으로는 매우 간단한데 아래와  같다.

1) 주어진 자료셋을 이용, 다양한 ML 모델을 학습한다.
2) 학습된 모델을  자료셋에 적용하여 예측값을 얻어낸다.
3) 새로운  모델 (예: Logistic Regression, etc.)을 이용, 자료셋  + 예측값을 포함하는 자료로 새로운 모델을 학습한다.
4) #3에서 학습된 모델이 Stacked Model 이다.

이 방법은  이미 여러 실험과  검증을 통해서, 단일모델보다 성능이 좋은 것으로 밝혀졌다.

ML에 관심있는 사람이라면 한번 쯤은 시도해볼만한 방법이다.

댓글

이 블로그의 인기 게시물

Intel이 ONNX에 참여하다

Google의 DeepMind가 인간전문가보다 독순술을 더 잘한다고 한다

천문학에서의 인공지능: Gaia Hypervelocity stars