트랜스포머

🏷️ 정보 LLM

트랜스포머

트랜스포머(Transformer)는 2017년 "Attention is All You Need" 논문에서 제안된 신경망 아키텍처로, RNN 없이 셀프 어텐션만으로 시퀀스를 병렬 처리하여 기계 번역을 비롯한 모든 NLP 과제에서 혁명적 성과를 이끌었다.

핵심

수식

\[\text{Attention}(Q,K,V) = \text{softmax}\!\left(\frac{QK^T}{\sqrt{d_k}}\right)V\]