셀프 어텐션

🏷️ 정보 LLM

셀프 어텐션

셀프 어텐션(Self-Attention)은 입력 시퀀스의 각 요소가 동일한 시퀀스 내의 모든 다른 요소와 어텐션을 계산하여, 시퀀스 내 모든 위치 간의 의존성을 동시에 포착하는 메커니즘이다.

핵심

수식

\[\text{SelfAttn}(X) = \text{softmax}\!\left(\frac{XW^Q(XW^K)^T}{\sqrt{d_k}}\right)XW^V\]