간단 요약

Leaf wise, GOSS, EFB

기존의 Tree 기반 알고리즘과는 다르게 동작한다.

성능 자체를 강화하는데 목적을 둔다.

  1. 약한 학습자(weak classifier)에게 적합하게 반복하여 앙상블 모델에 집계
  2. 다음 기본 모델을 피팅할 때 현재 앙상블 모델의 강점과 약점을 더 잘 고려하도록 훈련 데이터 세트를 업데이트

Microsoft에서 제안한, 병렬 처리 없이도 빠르게 Gradient Boosting을 학습할 수 있도록 하는 모델

$$ \tt O(data \times feature)→ O(data\_GOSS \times Bundles) $$


시퀀스 데이터에도 LGBM을 사용할 수 있다.

다만, 시퀀스 정보를 feature에 녹여낸 후 사용해야 한다.

LightGBM Classifier in Python

[LightGBM] LGBM는 어떻게 사용할까? (설치,파라미터튜닝)

Hyper-parameter

주요 파라미터

object

options: regression, binary, multiclass...

metric

options: mae, rmse, mape, binary_logloss, auc, cross_entropy, kullbac_leibler...

1. learning_rate

일반적으로 0.01 ~ 0.1 정도로 맞추고 다른 파라미터를 튜닝한다.

나중에 성능을 더 높일 때 learning rate를 더 줄인다.