지식 증류

큰 모델(Teacher Network)로부터 증류한 지식을 작은 모델(Student Network)로 transfer하는 일련의 과정

Q1. Knowledge Distillation은 도대체 왜 등장했을까?

모델 배포(model deployment) 측면에서 지식 증류의 필요

방법

Q2. Knowledge Distillation은 언제 처음으로 등장했을까?

Knowledge Distillation은 NIPS 2014 workshop에서 발표한 논문 “Distilling the Knowledge in a Neural Network”에서 처음으로 등장한 개념