/
Search
📖

13p, appendix, Multihead self-attention (MSA) is an extension of SA in which we run k self-attention operations, called “heads”, in parallel, and project their concatenated outputs.

출처
수집시간
2021/11/06 09:08
연결완료
1 more property
SA 와 MSA 의 관계. 논문의 내용이 이해하는 데 도움이 된 것 같다.