AI 심화 모델링 학습 가이드: Transformer

과목: 자연어 처리 (Natural Language Processing)

주요 학습 토픽:

요약:

본 학습 가이드는 RNN과 CNN의 한계를 극복하며 현대 자연어 처리(NLP)의 근간이 된 Transformer 아키텍처를 다룹니다. 문장 내 단어 간의 관계를 거리에 상관없이 한 번에 포착하는 핵심 원리인 Self-Attention을 이해하고, BERT와 GPT와 같은 주요 모델들의 구조적 차이점과 그로 인한 용도의 차이를 학습합니다. 또한, Transformer의 계산 복잡도 문제를 해결하기 위한 효율화 기법들과 컴퓨터 비전 분야로의 확장까지 살펴봅니다.

주요 개념:

  1. Query (Q): 현재 단어의 대표 벡터.
  2. Key (K): 문장 내 모든 단어들이 가진 '꼬리표' 또는 '색인' 벡터.
  3. Value (V): 문장 내 모든 단어들이 가진 실제 '내용' 또는 '의미' 벡터.