AdaBoost처럼 앙상블에 이전까지의 오차를 보정하도록 예측기를 순차적(Sequential)으로 추가한다.

AdaBoost처럼 매 반복 마다 샘플의 가중치를 조정하는 대신, 이전 예측기가 만든 잔여 오차(Resudial Error)에 새로운 예측기를 학습시킨다.

Gradient Boosting

가중치 업데이트로 **경사하강법(Gradient Descent)**을 사용하여 최적화된 결과를 얻는 알고리즘

loss function이 줄어드는 방향(negative gradient)으로 week learner들을 반복적으로 결합하여 성능을 향상시킨다.

Untitled

CTR 예측을 통해 개인화된(personalized) 추천 시스템을 만들 수 있는 또 다른 대표적인 모델

Level-wise