Mar 8, 2023

기계번역

 

출처: https://wikidocs.net/166226
 

  • 1949년 논문에 등장 - 기계번역
  • ~1980 : 규칙기반 
    • 1968 Systran, Peter Toma, 1924~
    • 동음이의어 등 규칙 지정의 한계 
  • ~1990 : 예시기반  
    • 마코토 1936~2021 예시기반 기계번역 
    • 예시와 데이터가 많을수록 결과는 정교해 짐 
  • ~2014 : 통계기반 
    • 문장을 단어 또는 구문 단위로 분할하여 번역한 후 합침 
    • 합치는 과정은 확률적인 방법 이용 
  • 2015년 이후 : 신경망기반 
    • 신경망 기반 기계번역 : 조경현 
      • 2010년 딥러닝을 기계번역에 도입 : Neural Machine Translation 
      • 어텐션 : Attention
        • 보다 중요한 단어를 강조하는 원리 
    • Transformer Model 
      • "Attention is all you need" : Transformer 
      • 인코더 : 입력 문장을 압출 (한 종류의 어텐션)
        • Bert : 인코더가 문장의 의미를 압축해 낼 수 있는 것에 착안된 모델
      • 디코더 : 인코더 압축 벡터를 출력 문장으로 생성(두 종류의 어텐션)
        • GPT-3 : 디코더가 문장을 생성하는 데서 착안된 모델 
      • 최근 신경망 기반의 기계번역은 모두 이 트랜스포머 모델을 기반으로 함
출처: https://deepai.org/publication/attention-is-all-you-need