
11 * 11 input을 사용한다.
11 * 11, 5 * 5, 3 * 3 사용.
- 총 8층의 Layer로 구성
- ReLU
- GPU 2개 사용
- Local response Normalization, Overlapping pooling
- Data augmentation
- Dropout
지금 보면 당연한 선택들로 보이지만, 그 당시에는 모델이 별로 없었다.
현재 성능 개선을 위해 일반적으로 선택하는 항목들에 대한 표준을 만든 셈이다.
- 최초로 Deep Learning을 이용하여 ILSVRC에서 수상했다.