James Kobielus | InfoWorld
인공지능, 머신러닝, 딥러닝의 미래를 뒷받침하는 전용 하드웨어 플랫폼이 부상하고 있다.
관련된 모든 티어, 모든 업무, 클라우드에서 엣지에 이르는 모든 영역에서다.
AI의 급격하게 발전하고 있는 가운데, 머신러닝과 딥러닝에 특화된 새로운 종류의 하드웨어 가속기 분야가 폭발적으로 성장하고 있다.
어떤 사람들은 이 강렬한 혁신을 가리켜 “캄브리아 폭발기”이라 비유한다. 이는 5억 년 전 다세포 동물의 모든 생물학적 "체제"가 처음으로 등장했던 시대를 일컫는다. 그 이후로 인간을 포함한 생명체들이 확산되어 지구상의 모든 생태학적 틈새를 정복, 이용, 변형시키게 되었다.
혁신적인 AI 하드웨어 가속기 아키텍처의 범위도 지속적으로 확대되고 있다. GPU(Graphic Processing Unit)가 지배적인 AI 하드웨어 아키텍처라고 생각할 수도 있지만 사실은 그렇지 않다. 지난 수 년 동안 스타트업 및 기존의 칩 벤더들은 머신러닝, 딥러닝, 자연어 처리, 기타 AI 워크로드에 특화된 인상적이고 새로운 세대의 새 하드웨어 아키텍처를 선보여왔다.
새로운 세대의 GPU 외에 이런 AI 최적화 칩셋 아키텍처에는 NNPU(Neural Network Processing Unit), FPGA(Field Programmable Gate Array), ASIC(Application-Specific Integrated Circuit), 기타 관련 접근방식이 포함되며 이를 뉴로시냅틱(Neurosynaptic) 아키텍처라 부른다.
아스테크니카(Ars Technica)의 기사에서 밝혔듯이 오늘날의 AI시장에는 한 때 데스크톱 컴퓨팅 분야를 장악했던 인텔의 x86 CPU 같은 하드웨어 모노컬처(monoculture)가 없다. 왜냐하면 이들 새로운 AI 가속기 칩 아키텍처는 컴퓨터 비전 등 급성장 중인 클라우드-엣지 생태계에서 각각 대단히 구체적인 역할을 수행하는데 활용되고 있기 때문이다.
AI 가속기 칩의 발전
AI 가속기 칩의 급격한 발전을 이해하려면 다음과 같이 시장 기회와 도전과제에 초점을 맞추는 것이 가장 좋다.
- AI 티어(Tier)
AI 가속기가 어떻게 발전하고 있는지 살펴보기 위해 모바일, 임베디드, 사물 인터넷 장치의 자율성을 높여주기 위해 새로운 하드웨어 플랫폼이 최적화되고 있는 엣지 부문을 살펴보자. 스마트폰 내장 AI 프로세서의 확산 외에도 자율주행 자동차부터 드론, 스마트 기기, 산업용 IoT까지 AI 로봇공학의 혁신이 침투하고 있다.
이와 관련하여 가장 주목할 만한 기술이 엔비디아(Nvidia)의 칩(SOC)상에서 AI 시스템의 젯슨 자비에(Jetson Xavier) AI에 대한 최신 개선사항이다. 엔비디아는 전용 로봇공학 하드웨어에서 구동할 로봇공학 알고리즘을 구축할 수 있도록 Isaac 소프트웨어 개발 키트를 공개했다.
지능형 로봇공학의 복잡성이 반영된 젯슨 자비에 칩은 512코어 엔비디아 볼타 텐서 코어(Volta Tensor Core) GPU, 8코어 카멜(Carmel) Arm64 CPU, 2개의 엔비디아 딥러닝 가속기, 이미지/비전/동영상 프로세스를 포함하여 6개의 처리 장치로 구성된다.
이를 통해 수십 개의 알고리즘을 처리하여 로봇이 자율적으로 환경을 감지하며 효과적으로 대응하고 인간 엔지니어 옆에서 안전하게 작동할 수 있도록 돕는다.
- AI 업무들
AI가속기는 분산형 클라우드-엣지, 고성능 컴퓨팅, 하이퍼컨버지드(Hyperconverged) 서버, 클라우드 저장소 아키텍처의 모든 티어에 침투하기 시작했다. 꾸준한 새로운 하드웨어 혁신이 이 분야에 적용되어 더욱 신속하게 효율적이며 정확한 AI 처리를 지원하고 있다.
AI 하드웨어 혁신은 이미 시장에 출현해 이런 별개의 애플리케이션 환경에의 구체적인 데이터 지향적인 과업을 가속화하고 있다. 시장에 있는 무수히 많은 AI 칩셋 아키텍처는 머신러닝, 딥러닝, 자연어 처리 그리고 저장 집중 훈련부터 컴퓨팅 집중 추론까지 다양한 기타 AI작업 부하에 대응해 다양한 수준의 장치 자율성과 루프(Loop) 내 인간 상호작용을 가속화하고 있다.
AI칩셋을 사용하여 지원하는 광범위한 작업 부하를 위해 벤더들은 자사의 제품 포트폴리오뿐만이 아니라 지능형 로봇 공학과 모바일 앱을 유도하는 SOC 등의 구체적인 임베디드형 AI 배치에 광범위한 기술을 혼합하고 있다.
한 예로, 인텔의 제온 파이(Xeon Phi) CPU 아키텍처가 AI 과업 가속화에 사용되고 있다. 동시에 인텔은 엔비디아 볼타(GPU에 포함) 그리고 NNPU 및 기타 특화된 AI칩을 제조하는 많은 벤더들과 정면으로 경쟁할 수 있는 AI가속기 칩 없이는 경쟁하기 어렵다는 사실을 인지하고 있다. 그래서 현재 인텔의 제품팀이 새 GPU를 개발하고 있으며 2년 후에 출시될 예정이다.
이와 동시에 AI 최적화 칩셋으로 신경망 프로세서(Nervana)), FPGAs(Altera), 컴퓨터 비전 ASICs(Movidius), 자율주행 자동차 ASICs(MobilEye) 등 여러 아키텍처 카테고리에서의 부상하고 있다. 또한 차세대 AI도전과제를 위해 자율 학습 신경구조 및 양자 컴퓨팅 칩을 개발하는 프로젝트도 있다.
- AI 임계치(tolerances)
모든 AI가속기 하드웨어 혁신은 관련된 운영 및 경제적 허용 한계치 내에서 정의된 지표를 달성하는 능력을 갖춰야 한다. 즉 운영 지표에서 모든 AI칩셋은 폼팩터, 에너지 효율, 열 및 전자기 발생, 견고함 측면에서 관련된 제약을 준수해야 한다.
또 경제적인 지표에서는 적용 티어와 과업에 대해 성능과 소유 비용 측면에서 경쟁력이 있어야 한다. 이를 측정한 벤치마크 결과는 AI가속기 기술이 경쟁적인 시장에서 살아남을 수 있는 가격-성능 프로필이 있는지 판단하는데 있어서 핵심 인자가 될 것이다.
워크로드 최적화 AI 아키텍처를 추구하는 업계는 개발, 교육, 운영화, 추론을 포함한 AI업무를 수행하기 위해 가장 빠르고 확장성이 뛰어나며 가장 에너지 효율적이고 가장 저렴한 하드웨어, 소프트웨어, 클라우드 플랫폼을 선택하려 할 것이다.
AI 가속기 ASIC의 다양성
AI 가속기 하드웨어 아키텍처는 모노컬처와는 반대이다. 나무 다양하고 빠르게 발전하기 때문에 이 시장의 무자비한 혁신 속도를 따라잡기가 어렵다.
엔비디아와 인텔 등의 핵심 AI칩셋 제조사들 외에도 플랫폼별 AI작업 부하를 위한 ASIC가 다양하다. 최근의 여러 뉴스 항목에서 이런 트렌드를 확인할 수 있다.
- 마이크로소프트는 홀로렌즈 증강현실 헤드셋을 위한 AI칩을 준비하고 있다.
- 구글은 구글 클라우드 플랫폼의 AI 앱을 위해 제공되는 특수 NNPU인 텐서 처리 장치를 보유하고 있다.
- 아마존은 알렉사 가정용 비서를 위한 AI칩을 개발하고 있다는 보도다.
- 애플은 시리와 페이스ID에 사용할 AI 프로세서를 개발하고 있다.
- 테슬라(Tesla)는 자율주행 전기 자동차를 위한 AI 프로세서를 개발하고 있다.
AI 가속기 벤치마크 프레임워크의 등장
AI 가속기 시장에서의 교차 벤더 협력 관계가 더욱 복잡하게 성장하고 있으며 중첩되고 있다. 예를 들어, 중국에 있는 기술 유력 집단 바이두(Baidu)가 인텔 및 엔비디아와 어떻게 별도로 협력하고 있는지 생각해 보자.
원문보기