다음주 강의:
11-785 Spring 23 Lecture 18: Sequence to Sequence models:Attention Models
세션 자료:
https://meet.google.com/brr-gqas-aop
https://github.com/AliceOfSNU/deep_learning_study25
다음주 코딩:
vision-language model을 만들어 봅니다.
⚠️multi-head attention 어떻게 짜는지 알아오기!!
