[NLP] Attention Is All You Need - 1

블로그에서 볼 수도 있습니다 :)

Annotated Transformer KR

BERT 의 기반이 되는 Transformer 입니다. Annotated Transformer 를 참고하여 코드를 구현하면서 논문에서 나온 디테일한 설명을 덧붙여 작성했습니다.

Page Content

Links

Paper

Attention Is All You Need

Implemented Code

simonjisu/annotated-transformer-kr

References

The Annotated Transformer

https://notion-ga.ohwhos.now.sh/collect?tid=UA-102691608-2&host=simonjisu&page=Attention-Is-All-You-Need-5944fbf370ab46b091eeb64453ac3af5