Feb 20, 2023

알파고

1. 체스 챔피언 : 딥 블루

  • 1997년 Garry Kasparov(1963~) vs Deep Blue 대결 
    • 컴퓨터가 정규 시합에서 처음으로 인간을 꺾고 세계 챔피언으로 등극
  • Game Tree : 게임에서 가능한 모든 경우의 수를 트리 형태로 나타냄
    • 체스 게임트리 크기는 10^120, 초당 2억번의 가능성을 계산
  • 가지치기 : 모든 경로를 완전 탐색하지 않고 한 번 탐색해 보고 성과가 없으면 그 쪽은 더이상 탐색을 하지 않고 나뭇가지 자르듯 쳐 내버림  
2. 바둑을 넘보다

  • 바둑의 무작위 경우수는 19x19=361, 361!->10^768 가능함 
    • 우조의 원자수 10^80
    • 바둑의 게임 트리 크기 10^360 
3. 도박의 확률 : 몬테카를로 방법

  • 몬테카를로 방법이 도입되어 비로소 바둑을 이길 수 있는 가능성이 보임
    • 몬테카를로는 관광도시로 카지노와 도박으로 유명 
    • 1940년 스타니스와프 울람(1909~84)에 의해 명명됨 - 중성자 확산 같은 복잡한 문제는 차라리 여러 번의 무작위 컴퓨터 실험으로 결과를 관찰하는게 실용적
    • 레미 쿨롱(1974~) : 몬테카를로 트리 탐색을 처음 고안함   
    • 아자 황(1978~) : 레미 쿨롱의 제자로 바둑 인공지능 외길 연구함 
      • 이세돌 대국에서 알파고 대신하여 바둑판에 착점하였음 
    • 무작위로 샘플링하여 정답을 찾는 방식 
  • 잭팟이 터질 확률이 0.03% 인 슬롯머신
    • 1만번 도전하면 3번은 잭팟이 터짐
    • 계속 도전하면 원래 확률만큼의 결과를 얻을 수 있음 
  • 바둑 인공지능의 가장 어려운 문제는 현재 국면이 어떤 상태인지를 바로 알기 어려움
    • 어느 한쪽이 유리하다면, 무작위로 바둑을 둔다고 해도 유리한 쪽이 이길 가능성이 높다고 봄
    • 선거 결과 예측시 1억명의 전 국민에게 물어보지 않고 천명 정도의 무작위 추출 해도 비슷한 결과가 나오는 것과 같음 
  • 몬테카를로 트리 탐색 도입
    • AI 프로그램은 6단 수준에 도달
  • 이후 두 종류의 인공 신경망을 만들어 실력을 획기적으로 향상
    • 정책망 Policy Network, 가치망 Value Network  

4. 정책망 : 어디에 돌을 내려 놓을까?

  • 정책망은 사람이 만든 기보를 이용해 학습함 
    • KGS 사이트에서 6단 이상의 기보 데이터를 가져와서 학습  
    • 정책망은 16만회 게임에서 3,000만 수를 가져옴 
    • 바둑의 현재 상태 정보를 입력값으로 하여 가능성이 높은 361곳 중 한 곳 선택
      • 이렇게 하면 정확도는 57%  
  • 정책망 3가지
    • 기보 학습 정책망 
      • 앞서 살펴본 사람의 기보를 활용해 학습한 정책망
    • 룰아웃 정책망
      • 정책망을 가볍게 만들어 속도를 빠르게 하는 정책망, 24% 정확도
    • 강화학습 정책망
      • 알파고 끼리 대국을 치르면서 스스로 실력을 향상 
5. 가치망 : 형세를 파악하다

  • 현재 국면에서 승패 여부를 예측하는 망  
    • 스스로 대국하는 강화학습을 통해 현 위치에 착점하였을 때의 확률을 표현 
    • 강화학습을 통해 게임의 국면을 판단할 수 있도록 함  
6. 알파고가 수를 두는 방법

  • 고수의 기보 -> 지도학습 -> 정책망 -> 강화학습 -> 가치망 
  • 바둑의 경우
    • 바둑은 탐색해야 하는 게임 트리가 엄청나게 크다
    • 게임 트리를 전부 탐색하는 것은 불가능 하다
    • 일부만 무작위로 샘플랭하여 탐색대호 비슷한 결과를 낼 수 있다
  • 몬테카를로 트리 탐색 사용
    • 99% 승률이 예상되도 1% 허점이 있으면 패배
    • 무작위로 탐색하되 더 꼼꼼하게 탐색해서 묘수를 놓치지 않도록 이 방법 사용
  • 몬테카를로 트리 탐색 순서
    1. 어떤 수가 유망한지 가치를 따져보고 승리할 가능성이 보이는 수를 선택
    2. 정책망으로 다음 수를 어디에 둘지 정함  
    3. 기보 학습 정책망에서 정한 수를 게임이 끝날 때까지 시뮬레이션함 
    4. 시뮬레이션이 너무 많기 때문에 이때 몬테카를로 방법을 사용 
    5. 빠르게 시뮬레이션해야 하므로 룰아웃 정책망을 접목함 
    6. 이때 가치망을 활용하여 승리 여부를 확률로 확인함 
    7. 시뮬레이션 결과와 가치망의 결과를 각각 50% 반영하여 장단점 보완
    8. 시뮬레이션으 가장 많이 진행한 수를 다음 수로 선택   
7. 신의 한수

  • 알파고는 네번째 대국에서 이세돌이 '신의 한수' 78수를 막아내지 못함 
  • 신의 한 수를 허용한 이유
    • 알파고는 몬테카를로 트리 탐색으로 유망한 수를 꼼꼼하게 탐색함
    • 확률이 높은 곳으로 더 깊게 탐색하여 신뢰가 높은 곳에 착점
    • 알파고는 78수 지접을 1만분의 1 로 낮게 예측
    • 확률이 낮은 지점이므로 수 십번 정도 탐색하는데 그침 
    • 78수 착점 이후, 알파고는 승률이 높은 지점을 찾지 못 해 이상한 곳에 둠 
8. 인간은 필요없다.  

  • 알파고 제로 
    • 인간 바둑기보를 활용하지 않고, 처음부터 자신과의 대국을 통해 실력을 높임
    • 완전 무에서 시작하여 '제로'라고 명명함
    • 매일 백만 대국을 치르면서 실력을 향상 시킴 
    • 결국 기존의 알파고를 100대 0으로 이김 
  • 엘로 평점 Elo Rating
    • 체스에도 사용한 점수 체계로, 이기면 증가하고 지면 감소함
    • 나보다 점수가 높은 상대를 이기면 점수가 큰 폭으로 증가
    • 나보다 점수가 낮은 상댁를 이기면 점수가 작은 폭으로 증가
    • Elo Rating
      • 이세돌 : 3,586(2010.4)
      • 알파고 : 3,739(2016.3)
      • 알파고 마스터 : 4,858(2017.5)
      • 알파고 제로 : 5,185(2017.10)
  • 알파제로
    • 바둑 뿐 아니라, 체스, 장기 등 게임 영역을 넓힘
    • 어떤 체스 전략을 사용않고, 스톡피쉬(기존 체스 챔피언)에게 1판도 패하지 않음
  • 알파고가 인간과의 대결에서 이겼다고 인류의 존재에 위협이 되진 않는다
    • 지나치게 기술에 의존해서도 안되며 그렇다고 기술에 공포를 느껴서도 안된다
    • 인간이 포크레인을 이용하여 땅을 잘 파듯이, 인공지능은 적절히 이용하면 인간의 삶을 질을 높이는데 훌륭한 역할을 할 것이다. 
출처 : 
  1. 박상길, "비전공자도 이해할 수 있는 AI 지식", 반니, 2022.03.

Feb 10, 2023

최근 AI 인공지능의 역사적 10대 사건

      

DALL-E

 창의력이 필요한 영역에 AI가 본격적으로 진입

  • 2021년 1월, 오픈AI는 문장(텍스트)을 이미지로 변환할 수 있는 AI 모델(DALL-E)을 전세계에 공개
  • 2022년 4월, 오픈AI는 현실감, 정확도 향상, 해상도 4배 향상 등 성능이 향상된 DALL-E2를 공개
  • DALL-E2는 이미지 생성 뿐만 아니라, 생성된 이미지를 수정할 수 있는 기능도 제공하여, 실제 업무 시 이미지의 수정 보완이 가능
  • DALL-E 공개 이후 글로벌 빅테크 기업들은 텍스트로 이미지를 생성하는 멀티모달 AI의 발전으로 창의적 영역에도 AI가 진입

Alphafold2

생물학 분야 난제 해결을 위한 AI 등장

  • 2018년 딥마인드는 인공지능, 생물학 등 도메인 전문가와 협업하여 딥러닝 기반의 단백질 구조예측 모델(알파폴드)을 개발
  • 약 50 여 년 간 난제라고 여겨지던 분야에서 기존의 연구 성과를 압도하는 알파폴드를 개발하였고 2020년 알파폴드2로 혁신적인 성과를 달성 
  • 알파폴드2 이후 반도체 칩 설계(전자공학), 기상 단기예측(대기과학) 등 난제 해결을 위해 전통적인 과학 분야에 AI가 적용되기 시작

GPT-3

상상을 초월하는 초거대 언어 AI 발표

  • 오늘날 쳇GPT가 있기 까지 타임라인
  • 2020년 오픈AI에서 그간의 GPT, GPT-2의 연구성과를 바탕으로 매개변수 사이즈를 확대한 GPT-3을 공개하였습니다.
  • GPT는 주어진 문장의 앞부분으로 다음 단어를 예측하는 NLP모델입니다.
  • 2020년 상반기까지는 언어모델 사이즈의 큰 폭의 변화는 없었으나, GPT-3에서 1,750억개 매개변수 수준의 초거대 모델이 등장하였습니다.
  • GPT-3 이후 AI 초거대화를 통한 기록적인 성능 향상을 경험 후 전 세계는 대규모 자본을 투입하여 경쟁적으로 초거대 AI 개발 중입니다.
  • 미국 :  GPT-3(오픈AI), LaMDA2, PaLM(구글), OPT-175B(메타)
  • 중국 : Wudao2.0(BAAI), Pangu Alpha(화웨이)
  • 국내 : 하이퍼클로바(네이버)KoGPT(카카오), 엑사원(LG), 믿음(KT), 에이닷(SKT)

Transfomer

인공지능의 고속 발전에 기여한 기술 등장

  • 2017년 구글은 ‘Attention is all you need’ 논문을 발표하며, 자연어 처리 분야에 그간 없던 혁신적인 방법을 제시
  • 트랜스포머는 언어 처리의 병렬화를 통해 계산 효율성을 향상 시키며, 그간 순차적으로 단어를 학습하는 알고리즘의 한계를 극복
  • 트랜스포머 공개 이후 글로벌 빅테크 기업들은 모두 트랜스포머 기반의 언어모델을 앞다투어 연구하고 공개하기 시작
  • 언어모델의 표준처럼 불리는 구글의 BERT, 오픈AI의 GPT등은 트랜스포머 기반으로 개발된 언어모델
  • 전통적으로 이미지 분야는 CNN, 언어처리 분야는 트랜스포머가 주류였으나 최근 이미지 분야에도 트랜스포머 방식 도입으로 CNN보다 우수한 성능을 내는 트랜스포머 기반의 시각지능 AI가 공개되는 등 트랜스포머의 영향력이 지속적으로 확대 중

아실로마 인공지능 원칙

인공지능의 부작용을 걱정하는 목소리 등장

  • 2015년 구글 흑인사진 오인식과 MS 챗봇 ‘테이’의 인종차별 등 각종 혐오 발언으로 인공지능의 윤리가 주요 이슈로 등장
  • 각종 AI 윤리와 관련된 사고들이 발생함에 따라, 2017년 미국의 비영리 단체 futrue of Life institute는 아실로마 컨퍼런스에서 AI원칙을 수립함 
  • 아실로마 AI 원칙을 통해 본격적으로 AI 윤리 분야의 중요성을 전 세계에 알렸으며, AI 개발과정에서 발생할 수 있는 실패와 자유의 침해에 대해 책임성 있는 행동을 강조
  • 이후 AI의 부작용 해소를 위해 각국 및 산업계에서 AI 윤리 가이드라인 및 인공지능 법안 제안 등 국제사회 논의 및 연구가 활발해짐 

Alphago

알파고 - 인공지능 대중화를 앞당긴 알파고-이세돌 대국

  • 2016년 3월 서울 포시즌스 호텔에서 시작한 구글 딥마인드 챌린지 매치에서 알파고와 이세돌 9단과의 대국이 있었고, 이세돌 9단이 최종 4:1로 패배하며, 인공지능의 성능을 전 세계에 알리게 된 대표적인 사건
  • 알파고는 CNN(딥러닝), 강화학습, 몬테카를로 트리 등 인공지능과 게임이론의 최신 기술을 적용하여 활용하고, 구글의 클라우드 컴퓨팅 환경에서 개발
  • R&D 영역에서 주목 받고 있던 AI 기술이 알파고를 통해 전 세계적인 주목을 받아 AI 정책 수립의 도화선이 됨 

Tensor flow

AI 생태계 확장을 가져 온 오픈소스 툴 공개

  • 2015년 구글이 TensorFlow, 메타가 Pytorch AI 개발 프레임워크를 무료 공개
  • AI 개발 프레임워크는 AI 개발 시 필요한 각종 수학적 라이브러리를 제공하고, 학습 및 추론 환경 모니터링, 모델의 배포 등 개발 전 과정으로 지원하는 도구
  • AI 개발 프레임워크 활용을 통해 학습 알고리즘(코드), 모델의 공유가 용이하여, 누구든지 선행연구를 쉽게 찾아 활용할 수 있게 됨 
  • 이후 AI 오픈소스 기업의 등장과 Stability AIHuggingface 같은 유니콘 기업이 등장 하는 등 AI 산업 생태계가 급속도록 확장, 성장하게 됨 

GAN

가짜 이미지를 생성할 수 있는 새로운 방법 GAN 탄생

  • 2014년 이안 굿펠로우의 논문에서 처음 소개되어, 머신러닝 학계에 큰 영향을 끼치고 있는 혁신적인 생성 모델 구조
  • GAN은 가짜 이미지를 진짜처럼 보이 학습하는 생성모델과 가짜 이미지를 가짜로 식별하도록 학습하는 판별모델, 이 두개의 모델이 번갈아 가며 데이터를 주고 받아 점진적으로 학습되어 고도화된 생성모델
  • GAN 기술 발표 후 생성 AI 분야의 연구가 폭발적으로 증가하며 딥페이크 기술을 활용한 가짜와의 전쟁이 촉발
  • 반면 이미지 영역 이외에 다양한 영역에서 생성 모델이 도입되어 AI서비스 성능의 향상을 통한 비즈니스 모델로의 활용이 본격화 됨

CNN

현실 문제 해결을 위해 CNN 합성곱 신경망 등장

  • CNN(Convolution Neural Network)은 합성곱 신경망으로 특정한 사이즈의 필터와 이미지의 픽셀 간 합성곱을 통해 학습하는 방식
  • CNN은 1989년 “Backpropagation applied to handwritten zip code recognition”에서 처음 소개
  • 1998년 제프리 힌트 교수 연구실에서 박사후 연구과정 중인 얀 르쿤 박사가 초기 CNN의 기술적 성능을 개선하여 우편번호 인식 등 실제 상용화를 달성
  • 2012년 CNN방식이 이미지넷 챌린지 대회에서 우승하며 새롭게 주목
  • 이후 구글, MS 등 빅테크 기업들도 CNN방식을 활용하여 이미지 인식 경쟁에 참여하는 등 모든 AI 시각지능 분야에 적용되어 새로운 표준으로 부상하며 딥러닝의 새로운 붐을 조성

Feb 5, 2023

ChatGPT

ChatGPT는 

  • Transformer 아키텍처를 기반으로 OpenAI에서 개발한 일종의 언어 모델입니다. 
  • 딥 러닝 알고리즘과 대량의 교육 데이터를 사용하여 주어진 프롬프트에 대해 사람과 같은 텍스트 응답을 생성합니다. 
  • 높은 수준에서 작동하는 방법은 다음과 같습니다. 
    • 모델에 질문, 진술 또는 기타 유형의 텍스트 입력이 될 수 있는 프롬프트가 제공됩니다. 
    • 이 모델은 입력을 숫자 표현으로 인코딩하여 처리한 다음 여러 계층의 신경망 처리를 통과합니다. 
    • 각 계층에서 모델은 어텐션 메커니즘을 사용하여 입력 및 이전에 생성된 텍스트에서 서로 다른 단어의 중요성을 평가합니다. 
    • 마지막으로 모델은 처리된 표현을 다시 텍스트로 디코딩하고 응답을 출력합니다. 
    • 이 모델은 방대한 양의 텍스트 데이터 세트에 대해 교육을 받았기 때문에 종종 일관되고 문맥상 관련이 있으며 언어적으로 적절한 응답을 생성할 수 있습니다. 모델의 정확한 작업은 더 복잡하고 많은 기술적 세부 사항을 포함하지만 프로세스에 대한 일반적인 개요를 제공합니다.

Feb 3, 2023

시험용

daum

음성 인식 (Speech Recognition)

 1. ASR(자동음성인식) 솔루션 두 가지 

  • 서비스: 클라우드에서 실행되거나 Python 라이브러리로 서비스
    • Google, Amazon, Microsoft의 클라우드
  • 소프트웨어: 로컬로 실행(네트워크 연결이 필요하지 않음) 

 2. 음성 인식 API 두 가지 유형

  • 배치: 전체 오디오 파일이 매개변수로 전달되고 음성-텍스트 변환이 한 번에 수행
  • 스트리밍: 오디오 버퍼의 청크가 반복적으로 전달되고 중간 결과에 액세스할 수 있음

 3. Colab에서 사용하기

  • 모든 패키지는 배치 모드를 지원하며 일부는 스트리밍 모드도 지원
  • 일반적인 사용 사례 중 하나는 마이크에서 오디오를 수집하고 버퍼에서 음성 인식 API로 전달하는 것입니다. 항상 그러한 기록기에서 마이크는 PortAudio 를 통해 구현되는 PyAudio 를 통해 액세스
  • Colab 메뉴에서 런타임 > 런타임 유형 변경 을 선택하고 Python3으로 설정되어 있는지 확인하고 GPU 버전을 사용하려면 GPU를 선택

 4. 참고 : 음성, 오디오 관련


Feb 1, 2023

콴텍 (Quantec)

 1. 용도 





인공지능망

 1. 퍼셉트론

  • 개요 : 인공 신경망(Aritificial Neural Network, ANN)의 구성 요소(unit)로서 다수의 값을 입력받아 하나의 값으로 출력하는 알고리즘. Perceptron은 perception과 neuron의 합성어이며 인공 뉴런이라고도 하며, 생물학적인 신경계(Neual Network)의 기본 단위인 신경세포(=뉴런)의 동작 과정을 통계학적으로 모델링한 알고리즘.
  • 생물학 뉴런의 역할과 동작 과정 : 수상돌기에서 인접한 다수의 뉴런 내 축삭돌기와 시냅스를 통해 신호를 입력받아 신경세포체에 저장합니다. 해당 뉴런이 저장한 신호의 크기가 특정 값(=임계값) 이상이 될 때만 신호가 축삭돌기를 통해 외부로 전달되기 때문에, 출력신호를 제어할수 있음.
  • 뉴런의 기본 동작은 가지돌기(수상돌기)에서 신호를 받아들이고, 이 신호가 축삭돌기를 지나 축삭말단으로 전달되는 것이다. 신호가 축살돌기를 지나는 동안 약해지거나 너무 약해져서 축삭말단까지 전달되지 않거나, 또는 강하게 전달되기도 한다. 그리고 축삭말단까지 전달된 신호는 연결된 다음 뉴런의 가지돌기로 전달된다. 인간은 이러한 원리를 지는 수억개의 뉴런 조합을 통해 손가락을 움직이거나 물체를 판별하는 등 다양한 조작과 판단을 수행한다.
  • 뉴런과 신경망의 원리를 인공 뉴런의 개념을 덧씌우면 아래 그림과 같다.  

 2. 인공지능망 모델 

  • 인공지능망 모델 - 인간의 뇌를 부분적으로 흉내낸 것
  • 사람 신경망 단순화 : 여러가지 입력 데이터를 합쳐서 처리한 후 다음 노드로 결과 전달
  • 가중치가 있는 링크들의 연결로 이루어 진다
  • 각각의 뉴런은 여러 뉴런에게 데이터를 받지만, 단 하나의 결과만을 낸다
  • 각각의 신호값을 가중치와 곱한 값들의 합과 뉴런이 가지고 있는 한계치와 비교한다
  • 간단한 경우 한계치를 넘어서면 1을, 그렇지 않으면 -1을 출력하여 다음 노드로 전달

 3.  단순한 인공지능망 모델 예제 (선형회귀) 

  • 12개의 입력 데이터(x)에 대해 다음과 같은 출력(y)이 나오는 경우
    • 입력(x) : [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]
    • 출력(y) : [5.0, 8.8,  9.6, 14.2, 18.8, 19.5, 21.4, 26.8, 28.9, 32.0, 33.8, 38.2]
  • 이 경우는 1차 함수 형태로 구성되므로
    • y = w * x + b 
    • 여기서 얻고자 하는 값은 w, b 
    • 입력, 출력 값을 가지고 w, b 값을 찾아서 
    • 입력이 13 이거나 2.5 와 같은 경우에 출력 값을 예상 
  • w, b 값을 찾는 프로그램 

4. 활성화 함수 (Atcivation Function)

  • 결과값을 내보낼때 사용하는 함수 (전이함수)
  • 종류
    • 계단함수
    • 부호함수
    • 시그모이드 함수
    • 선형함수
    • 쌍곡 탄젠트 함수 

심층강화학습 (DRL)

 심층강화학습 (DRL, Deep Reinforcement Learning)

  • DRL - 지능 필요한 문제를 해결할 수 있는 컴퓨터 프로그램을 만드는 것과 관련된 인공 지능에 대한 기계 학습 접근 방식입니다. DRL 프로그램의 고유한 특성은 강력한 비선형 함수 근사를 활용하여 순차적이고 평가적이며 샘플링되는 피드백으로부터 시행착오를 통한 학습입니다.