파인튜닝은 사전 훈련된 대규모 언어 모델(LLM)을 특정 작업이나 도메인에 맞게 미세 조정 하는 기법이다. LLM은 방대한 양의 텍스트 및 코드 데이터 세트로 사전 훈련되어 다양한 작업을 수행할 수 있는 기본적인 능력을 갖추고 있다. 그러나 특정 작업에 대한 성능을 최적화 하기 위해서는 추가 학습이 필요하다.
| 방법 | 설명 | 장점 | 단점 |
|---|---|---|---|
| 전체 파인튜닝 (Full fine-tuning) | 모델 전체 가중치를 학습 | 높은 성능 | 매우 많은 GPU 자원 필요 |
| 미세 조정 (LoRA / QLoRA) | 일부 층만 학습, 나머지는 고정 | ✅ 소형 GPU에서도 가능 | 완전한 재학습은 어려움 |