작성자: 민규식, 김기훈, 최승원, 백종윤
공식 구현: https://github.com/NVlabs/stylegan
Paper

2019.03.29
https://www.youtube.com/watch?v=kSLJriaOumA&feature=youtu.be
1. Introduction
- GAN을 기반으로 한 이미지 합성 기술이 발전하면서 점점 실제 같은 이미지가 만들어지고 있지만, 합성되는 이미지의 attribute는 조절하기 어렵다는 한계가 여전히 존재한다.
- 또한 생성된 이미지 중 부자연스러운 이미지도 많이 생성하는 점도 문제이다.
- 본 논문에서는 Generator를 redesign하여 이미지 합성 과정을 조절
- 각 conv layer에 기반한 latent code의 style을 조절한다.
- 직접적으로 image feature의 strength를 다른 scale에서 조절
- Input latent Code를 intermediate latent space에 임베딩
- Discriminator나 Loss에 대한 변경 없음
- Latent disentanglement를 구하기 위해 2가지 metric 사용
- Perceptual Path Length
- Linear Separability
→ (Style Transfer에 기반) 생성되는 이미지를 style의 조합으로 보고 각 layer에 style 정보를 추가해주면, 어떤 layer에 추가되느냐에 따라 course, fine attribute를 조절 가능할 뿐 아니라 안정적이며 높은 quality의 이미지 생성이 가능하다.
2. Style-based Generator
