GPT-1 논문 한눈에 보기


Transformer ↔ GPT-1 ↔ BERT: 무엇이 같고, 무엇이 다른가?

공통의 뿌리: Transformer

분기점 1 — 어떤 “절반”을 쓰는가?

분기점 2 — 사전학습 목표(Objective)

분기점 3 — 입력 구성과 파인튜닝

분기점 4 — 데이터