1. 논문 개요


2. 주요 구성 및 방법

2.1 아키텍처

2.2 사전학습(objectives)

BERT는 두 가지 주요 사전학습 목표(objective)를 사용한다:

2.3 파인튜닝(Fine-tuning)


3. Transformer 논문과의 연관성 및 차이점