참고자료들

https://github.com/ndb796/Deep-Learning-Paper-Review-and-Practice

Transformer

Attention Is All You Need(transformer) paper 정리

Transformer: Attention is All You Need

점프 투 파이썬


Introduction

기존 NLP에서 SOTA로 자리잡고 있던 RNN류의 모듈들

Untitled

RNN의 단점

  1. 병렬 연산이 불가능해 메모리 제약으로 batch 크기가 제한된다.
  2. Sequence의 길이가 길어질수록 정확도가 낮아진다.

연속적 연산의 한계

이러한 단점을 극복하기 위해