Search
Duplicate
🔵

a9_1.1_1. title: Seq2Seq 에서 사용한 어텐션 메커니즘이 크로스 어텐션(Cross Attention)이다. SA(Self Attention)는 인코더와 디코더 구조가 아니더라도 작동할 수 있는 어텐션 메커니즘이다.

생성
🚀 prev note
🚀 next note
14 more properties
그림(ref1)
attention vs self attention
parse me : 언젠가 이 글에 쓰이면 좋을 것 같은 재료을 보관해 두는 영역입니다.
1.
None
from : 과거의 어떤 원자적 생각이 이 생각을 만들었는지 연결하고 설명합니다.
1.
크로스 어텐션은 Seq2Seq 에서 사용한 어텐션인 인코더-디코더 어텐션과 같은 것이라고 보면 된다.
supplementary : 어떤 새로운 생각이 이 문서에 작성된 생각을 뒷받침하는지 연결합니다.
1.
None
opposite : 어떤 새로운 생각이 이 문서에 작성된 생각과 대조되는지 연결합니다.
1.
None
to : 이 문서에 작성된 생각이 어떤 생각으로 발전되거나 이어지는지를 작성하는 영역입니다.
ref : 생각에 참고한 자료입니다.