Machine Learning Model Stacking (기계학습 모델쌓기)
![이미지](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj4oWmF9dbXELF8Wmb4bPyLGnUW7UiqLW3mvAT6PKUgcxl3HDFmutrDLs2vo7WrZzUsHrwy-0rPPto1qJ5mkiPQikOJB3vfuFvOc9BtTGxxIKbko2vikh6zCnJnsfNzPjCarLLKz8FZlNK0/s400/Screen+Shot+2018-02-27+at+6.25.34+PM.png)
Kaggle. ML에 관심있는 사람은 이미 많이 들어봤을 사이트. (Kaggle에 대해서는 나중에 따로 소개할 기회가 있을 듯?) 다양한 자료셋을 바탕으로 전세계의 사용자들이 최적의 모델을 만들기 위해 경쟁하는 장이다. 이 Kaggle에서 최적모델을 만드는 방법 중 많이 쓰이는 방법이 이 Model Stacking이다. 이론적으로는 매우 간단한데 아래와 같다. 1) 주어진 자료셋을 이용, 다양한 ML 모델을 학습한다. 2) 학습된 모델을 자료셋에 적용하여 예측값을 얻어낸다. 3) 새로운 모델 (예: Logistic Regression, etc.)을 이용, 자료셋 + 예측값을 포함하는 자료로 새로운 모델을 학습한다. 4) #3에서 학습된 모델이 Stacked Model 이다. 이 방법은 이미 여러 실험과 검증을 통해서, 단일모델보다 성능이 좋은 것으로 밝혀졌다. ML에 관심있는 사람이라면 한번 쯤은 시도해볼만한 방법이다. 원본 문서는: http://blog.kaggle.com/2016/12/27/a-kagglers-guide-to-model-stacking-in-practice/