/
Search
🧠

8:09, attention mechanism (어텐션)은 encoder, decoder (근본이 Seq2Seq, 참고1, 2) 사이의 상관관계를 바탕으로 특징을 추출한다. self-attention (셀프어텐션) 은 데이터 내에서 상관관계를 바탕으로 특징을 추출하도록 한다. (둘을 비교해볼 수 있는데, 둘을 비교한 그림1 참고.)

출처
수집시간
2021/10/10 08:41
연결완료
인라인 메모
테슬라 케이스스터디 해봐야겠다. 이런 큐-키-값을 잘 활용하는 것 같은데
attention vs self attention
참고