출처: https://wikidocs.net/166226
- 1949년 논문에 등장 - 기계번역
- ~1980 : 규칙기반
- 1968 Systran, Peter Toma, 1924~
- 동음이의어 등 규칙 지정의 한계
- ~1990 : 예시기반
- 마코토 1936~2021 예시기반 기계번역
- 예시와 데이터가 많을수록 결과는 정교해 짐
- ~2014 : 통계기반
- 문장을 단어 또는 구문 단위로 분할하여 번역한 후 합침
- 합치는 과정은 확률적인 방법 이용
- 2015년 이후 : 신경망기반
- 신경망 기반 기계번역 : 조경현
- 2010년 딥러닝을 기계번역에 도입 : Neural Machine Translation
- 어텐션 : Attention
- 보다 중요한 단어를 강조하는 원리
- Transformer Model
- "Attention is all you need" : Transformer
- 인코더 : 입력 문장을 압출 (한 종류의 어텐션)
- Bert : 인코더가 문장의 의미를 압축해 낼 수 있는 것에 착안된 모델
- 디코더 : 인코더 압축 벡터를 출력 문장으로 생성(두 종류의 어텐션)
- GPT-3 : 디코더가 문장을 생성하는 데서 착안된 모델
- 최근 신경망 기반의 기계번역은 모두 이 트랜스포머 모델을 기반으로 함
출처: https://deepai.org/publication/attention-is-all-you-need