다음주 강의:

11-785 Spring 23 Lecture 18: Sequence to Sequence models:Attention Models

세션 자료:

6주차_transformers.pdf

6주차_projecet2.pdf

https://meet.google.com/brr-gqas-aop

https://github.com/AliceOfSNU/deep_learning_study25

다음주 코딩:

vision-language model을 만들어 봅니다.

⚠️multi-head attention 어떻게 짜는지 알아오기!!

image.png