2018.07.20 10:05:20 / 백지영 jyp@ddaily.co.kr
아마존웹서비스(AWS)가 최근 '스노우볼 엣지(Snowball Edge)'에서 구동 가능한 EC2 인스턴스를 출시해 관련 업계의 이목이 집중되고 있다.
스노우볼 엣지는 기존 온프레미스 데이터센터 혹은 시스템에서 아마존 클라우드 환경으로 이전이 용이하도록 만든 로컬 스토리지 어플라이언스다. AWS 람다와 그린그래스 기능이 탑재돼 있어 데이터 수집 및 처리에 적합하며 최대 100테라바이트(TB)까지 지원한다.
AWS가 스노우볼 엣지에서 구동할 수 있는 컴퓨팅 서비스 EC2 인스턴스를 출시하면서 프라이빗 클라우드로의 전략 확대에 관심이 쏠리고 있다. 그동안 AWS는 퍼블릭 클라우드 서비스 시장의 최강자로 자리매김했지만, 업계에서 강조하는 하이브리드 클라우드 시장에선 소극적인 모습을 보였다.
물론 그동안 VM웨어 등과 업체와 하이브리드 클라우드 서비스 형태인 ‘VM웨어 클라우드 온 AWS(VMware Cloud on AWS)와 같은 서비스도 출시했지만 아직 초기 단계다. AWS가 스노우볼 엣지와 같은 어플라이언스를 기반으로 본격적인 프라이빗 클라이빗 및 하이브리드 클라우드 대응에 나설지가 관전 포인트다.
AWS에 따르면 각각의 스노우볼 엣지는 1.8 GHz의 인텔 제온 D CPU에 탑재돼 총 24개의 가상CPU(vCPU)와 32 GiB 램을 돌릴 수 있다.
이번에 출시된 새로운 스노우볼 엣지(sbe) 인스턴스는 총 6개다 1vCPU와 1GiB 메모리를 제공하는 sb21.small부터 16개 vCPU와 32 GiB 메모리를 제공하는 sbe1.4xlarge까지 다양하다.
AWS가 그동안 큰 주목을 받지 못했던 스노우볼 엣지의 EC2 전용 인스턴스를 출시하면서 예상되는 시나리오는 우선 전통적인 데이터 처리를 스노우볼 엣지에서 하고 이를 AWS이나 타사 클라우드로 이전시키는 역할이다. 비싼 WAN 비용과 네트워크 지연을 줄이고 빅데이터나 IoT 등을 위한 데이터 전처리를 빠르게 해주는 것이다.
또 다른 시나리오는 흩어져 있는 PC와 서버를 원격으로 관리하는 역할이다. AWS의 제프 바 최고 에반젤리스트는 블로그를 통해 “sbe 인스턴스가 온프레미스의 산업용 PC를 중앙에서 관리하기 원하는 IT관리자들의 요구사항을 충족시킬 수 있을 것으로 기대한다”고 설명한 바 있다.
특히 이번 발표가 최근 AWS의 네트워킹 스위치 판매와도 관련이 있을지 주목된다. AWS가 기존 고객에게 저가형 화이트박스 네트워킹 스위치를 판매한다는 소식이 흘러나오면서 지난주 시스코 등 네트워크 장비업체의 주가가 급락했다. AWS이나 구글과 같은 대형 인터넷 서비스 기업은 서버부터 네트워크 장비, 심지어 자체 반도체칩까지 직접 개발하고 있는 상황인만큼, 이번 스노우볼 엣지를 통해 향후 어떠한 전략을 구사할지 주목된다.
Jul 27, 2018
Jul 24, 2018
"캄브리아기 대폭발처럼"··· AI 하드웨어 가속기가 몰려온다
James Kobielus | InfoWorld
인공지능, 머신러닝, 딥러닝의 미래를 뒷받침하는 전용 하드웨어 플랫폼이 부상하고 있다.
관련된 모든 티어, 모든 업무, 클라우드에서 엣지에 이르는 모든 영역에서다.
AI의 급격하게 발전하고 있는 가운데, 머신러닝과 딥러닝에 특화된 새로운 종류의 하드웨어 가속기 분야가 폭발적으로 성장하고 있다.
어떤 사람들은 이 강렬한 혁신을 가리켜 “캄브리아 폭발기”이라 비유한다. 이는 5억 년 전 다세포 동물의 모든 생물학적 "체제"가 처음으로 등장했던 시대를 일컫는다. 그 이후로 인간을 포함한 생명체들이 확산되어 지구상의 모든 생태학적 틈새를 정복, 이용, 변형시키게 되었다.
혁신적인 AI 하드웨어 가속기 아키텍처의 범위도 지속적으로 확대되고 있다. GPU(Graphic Processing Unit)가 지배적인 AI 하드웨어 아키텍처라고 생각할 수도 있지만 사실은 그렇지 않다. 지난 수 년 동안 스타트업 및 기존의 칩 벤더들은 머신러닝, 딥러닝, 자연어 처리, 기타 AI 워크로드에 특화된 인상적이고 새로운 세대의 새 하드웨어 아키텍처를 선보여왔다.
새로운 세대의 GPU 외에 이런 AI 최적화 칩셋 아키텍처에는 NNPU(Neural Network Processing Unit), FPGA(Field Programmable Gate Array), ASIC(Application-Specific Integrated Circuit), 기타 관련 접근방식이 포함되며 이를 뉴로시냅틱(Neurosynaptic) 아키텍처라 부른다.
아스테크니카(Ars Technica)의 기사에서 밝혔듯이 오늘날의 AI시장에는 한 때 데스크톱 컴퓨팅 분야를 장악했던 인텔의 x86 CPU 같은 하드웨어 모노컬처(monoculture)가 없다. 왜냐하면 이들 새로운 AI 가속기 칩 아키텍처는 컴퓨터 비전 등 급성장 중인 클라우드-엣지 생태계에서 각각 대단히 구체적인 역할을 수행하는데 활용되고 있기 때문이다.
AI 가속기 칩의 발전
AI 가속기 칩의 급격한 발전을 이해하려면 다음과 같이 시장 기회와 도전과제에 초점을 맞추는 것이 가장 좋다.
- AI 티어(Tier)
AI 가속기가 어떻게 발전하고 있는지 살펴보기 위해 모바일, 임베디드, 사물 인터넷 장치의 자율성을 높여주기 위해 새로운 하드웨어 플랫폼이 최적화되고 있는 엣지 부문을 살펴보자. 스마트폰 내장 AI 프로세서의 확산 외에도 자율주행 자동차부터 드론, 스마트 기기, 산업용 IoT까지 AI 로봇공학의 혁신이 침투하고 있다.
이와 관련하여 가장 주목할 만한 기술이 엔비디아(Nvidia)의 칩(SOC)상에서 AI 시스템의 젯슨 자비에(Jetson Xavier) AI에 대한 최신 개선사항이다. 엔비디아는 전용 로봇공학 하드웨어에서 구동할 로봇공학 알고리즘을 구축할 수 있도록 Isaac 소프트웨어 개발 키트를 공개했다.
지능형 로봇공학의 복잡성이 반영된 젯슨 자비에 칩은 512코어 엔비디아 볼타 텐서 코어(Volta Tensor Core) GPU, 8코어 카멜(Carmel) Arm64 CPU, 2개의 엔비디아 딥러닝 가속기, 이미지/비전/동영상 프로세스를 포함하여 6개의 처리 장치로 구성된다.
이를 통해 수십 개의 알고리즘을 처리하여 로봇이 자율적으로 환경을 감지하며 효과적으로 대응하고 인간 엔지니어 옆에서 안전하게 작동할 수 있도록 돕는다.
- AI 업무들
AI가속기는 분산형 클라우드-엣지, 고성능 컴퓨팅, 하이퍼컨버지드(Hyperconverged) 서버, 클라우드 저장소 아키텍처의 모든 티어에 침투하기 시작했다. 꾸준한 새로운 하드웨어 혁신이 이 분야에 적용되어 더욱 신속하게 효율적이며 정확한 AI 처리를 지원하고 있다.
AI 하드웨어 혁신은 이미 시장에 출현해 이런 별개의 애플리케이션 환경에의 구체적인 데이터 지향적인 과업을 가속화하고 있다. 시장에 있는 무수히 많은 AI 칩셋 아키텍처는 머신러닝, 딥러닝, 자연어 처리 그리고 저장 집중 훈련부터 컴퓨팅 집중 추론까지 다양한 기타 AI작업 부하에 대응해 다양한 수준의 장치 자율성과 루프(Loop) 내 인간 상호작용을 가속화하고 있다.
AI칩셋을 사용하여 지원하는 광범위한 작업 부하를 위해 벤더들은 자사의 제품 포트폴리오뿐만이 아니라 지능형 로봇 공학과 모바일 앱을 유도하는 SOC 등의 구체적인 임베디드형 AI 배치에 광범위한 기술을 혼합하고 있다.
한 예로, 인텔의 제온 파이(Xeon Phi) CPU 아키텍처가 AI 과업 가속화에 사용되고 있다. 동시에 인텔은 엔비디아 볼타(GPU에 포함) 그리고 NNPU 및 기타 특화된 AI칩을 제조하는 많은 벤더들과 정면으로 경쟁할 수 있는 AI가속기 칩 없이는 경쟁하기 어렵다는 사실을 인지하고 있다. 그래서 현재 인텔의 제품팀이 새 GPU를 개발하고 있으며 2년 후에 출시될 예정이다.
이와 동시에 AI 최적화 칩셋으로 신경망 프로세서(Nervana)), FPGAs(Altera), 컴퓨터 비전 ASICs(Movidius), 자율주행 자동차 ASICs(MobilEye) 등 여러 아키텍처 카테고리에서의 부상하고 있다. 또한 차세대 AI도전과제를 위해 자율 학습 신경구조 및 양자 컴퓨팅 칩을 개발하는 프로젝트도 있다.
- AI 임계치(tolerances)
모든 AI가속기 하드웨어 혁신은 관련된 운영 및 경제적 허용 한계치 내에서 정의된 지표를 달성하는 능력을 갖춰야 한다. 즉 운영 지표에서 모든 AI칩셋은 폼팩터, 에너지 효율, 열 및 전자기 발생, 견고함 측면에서 관련된 제약을 준수해야 한다.
또 경제적인 지표에서는 적용 티어와 과업에 대해 성능과 소유 비용 측면에서 경쟁력이 있어야 한다. 이를 측정한 벤치마크 결과는 AI가속기 기술이 경쟁적인 시장에서 살아남을 수 있는 가격-성능 프로필이 있는지 판단하는데 있어서 핵심 인자가 될 것이다.
워크로드 최적화 AI 아키텍처를 추구하는 업계는 개발, 교육, 운영화, 추론을 포함한 AI업무를 수행하기 위해 가장 빠르고 확장성이 뛰어나며 가장 에너지 효율적이고 가장 저렴한 하드웨어, 소프트웨어, 클라우드 플랫폼을 선택하려 할 것이다.
AI 가속기 ASIC의 다양성
AI 가속기 하드웨어 아키텍처는 모노컬처와는 반대이다. 나무 다양하고 빠르게 발전하기 때문에 이 시장의 무자비한 혁신 속도를 따라잡기가 어렵다.
엔비디아와 인텔 등의 핵심 AI칩셋 제조사들 외에도 플랫폼별 AI작업 부하를 위한 ASIC가 다양하다. 최근의 여러 뉴스 항목에서 이런 트렌드를 확인할 수 있다.
- 마이크로소프트는 홀로렌즈 증강현실 헤드셋을 위한 AI칩을 준비하고 있다.
- 구글은 구글 클라우드 플랫폼의 AI 앱을 위해 제공되는 특수 NNPU인 텐서 처리 장치를 보유하고 있다.
- 아마존은 알렉사 가정용 비서를 위한 AI칩을 개발하고 있다는 보도다.
- 애플은 시리와 페이스ID에 사용할 AI 프로세서를 개발하고 있다.
- 테슬라(Tesla)는 자율주행 전기 자동차를 위한 AI 프로세서를 개발하고 있다.
AI 가속기 벤치마크 프레임워크의 등장
AI 가속기 시장에서의 교차 벤더 협력 관계가 더욱 복잡하게 성장하고 있으며 중첩되고 있다. 예를 들어, 중국에 있는 기술 유력 집단 바이두(Baidu)가 인텔 및 엔비디아와 어떻게 별도로 협력하고 있는지 생각해 보자.
원문보기
인공지능, 머신러닝, 딥러닝의 미래를 뒷받침하는 전용 하드웨어 플랫폼이 부상하고 있다.
관련된 모든 티어, 모든 업무, 클라우드에서 엣지에 이르는 모든 영역에서다.
AI의 급격하게 발전하고 있는 가운데, 머신러닝과 딥러닝에 특화된 새로운 종류의 하드웨어 가속기 분야가 폭발적으로 성장하고 있다.
어떤 사람들은 이 강렬한 혁신을 가리켜 “캄브리아 폭발기”이라 비유한다. 이는 5억 년 전 다세포 동물의 모든 생물학적 "체제"가 처음으로 등장했던 시대를 일컫는다. 그 이후로 인간을 포함한 생명체들이 확산되어 지구상의 모든 생태학적 틈새를 정복, 이용, 변형시키게 되었다.
혁신적인 AI 하드웨어 가속기 아키텍처의 범위도 지속적으로 확대되고 있다. GPU(Graphic Processing Unit)가 지배적인 AI 하드웨어 아키텍처라고 생각할 수도 있지만 사실은 그렇지 않다. 지난 수 년 동안 스타트업 및 기존의 칩 벤더들은 머신러닝, 딥러닝, 자연어 처리, 기타 AI 워크로드에 특화된 인상적이고 새로운 세대의 새 하드웨어 아키텍처를 선보여왔다.
새로운 세대의 GPU 외에 이런 AI 최적화 칩셋 아키텍처에는 NNPU(Neural Network Processing Unit), FPGA(Field Programmable Gate Array), ASIC(Application-Specific Integrated Circuit), 기타 관련 접근방식이 포함되며 이를 뉴로시냅틱(Neurosynaptic) 아키텍처라 부른다.
아스테크니카(Ars Technica)의 기사에서 밝혔듯이 오늘날의 AI시장에는 한 때 데스크톱 컴퓨팅 분야를 장악했던 인텔의 x86 CPU 같은 하드웨어 모노컬처(monoculture)가 없다. 왜냐하면 이들 새로운 AI 가속기 칩 아키텍처는 컴퓨터 비전 등 급성장 중인 클라우드-엣지 생태계에서 각각 대단히 구체적인 역할을 수행하는데 활용되고 있기 때문이다.
AI 가속기 칩의 발전
AI 가속기 칩의 급격한 발전을 이해하려면 다음과 같이 시장 기회와 도전과제에 초점을 맞추는 것이 가장 좋다.
- AI 티어(Tier)
AI 가속기가 어떻게 발전하고 있는지 살펴보기 위해 모바일, 임베디드, 사물 인터넷 장치의 자율성을 높여주기 위해 새로운 하드웨어 플랫폼이 최적화되고 있는 엣지 부문을 살펴보자. 스마트폰 내장 AI 프로세서의 확산 외에도 자율주행 자동차부터 드론, 스마트 기기, 산업용 IoT까지 AI 로봇공학의 혁신이 침투하고 있다.
이와 관련하여 가장 주목할 만한 기술이 엔비디아(Nvidia)의 칩(SOC)상에서 AI 시스템의 젯슨 자비에(Jetson Xavier) AI에 대한 최신 개선사항이다. 엔비디아는 전용 로봇공학 하드웨어에서 구동할 로봇공학 알고리즘을 구축할 수 있도록 Isaac 소프트웨어 개발 키트를 공개했다.
지능형 로봇공학의 복잡성이 반영된 젯슨 자비에 칩은 512코어 엔비디아 볼타 텐서 코어(Volta Tensor Core) GPU, 8코어 카멜(Carmel) Arm64 CPU, 2개의 엔비디아 딥러닝 가속기, 이미지/비전/동영상 프로세스를 포함하여 6개의 처리 장치로 구성된다.
이를 통해 수십 개의 알고리즘을 처리하여 로봇이 자율적으로 환경을 감지하며 효과적으로 대응하고 인간 엔지니어 옆에서 안전하게 작동할 수 있도록 돕는다.
- AI 업무들
AI가속기는 분산형 클라우드-엣지, 고성능 컴퓨팅, 하이퍼컨버지드(Hyperconverged) 서버, 클라우드 저장소 아키텍처의 모든 티어에 침투하기 시작했다. 꾸준한 새로운 하드웨어 혁신이 이 분야에 적용되어 더욱 신속하게 효율적이며 정확한 AI 처리를 지원하고 있다.
AI 하드웨어 혁신은 이미 시장에 출현해 이런 별개의 애플리케이션 환경에의 구체적인 데이터 지향적인 과업을 가속화하고 있다. 시장에 있는 무수히 많은 AI 칩셋 아키텍처는 머신러닝, 딥러닝, 자연어 처리 그리고 저장 집중 훈련부터 컴퓨팅 집중 추론까지 다양한 기타 AI작업 부하에 대응해 다양한 수준의 장치 자율성과 루프(Loop) 내 인간 상호작용을 가속화하고 있다.
AI칩셋을 사용하여 지원하는 광범위한 작업 부하를 위해 벤더들은 자사의 제품 포트폴리오뿐만이 아니라 지능형 로봇 공학과 모바일 앱을 유도하는 SOC 등의 구체적인 임베디드형 AI 배치에 광범위한 기술을 혼합하고 있다.
한 예로, 인텔의 제온 파이(Xeon Phi) CPU 아키텍처가 AI 과업 가속화에 사용되고 있다. 동시에 인텔은 엔비디아 볼타(GPU에 포함) 그리고 NNPU 및 기타 특화된 AI칩을 제조하는 많은 벤더들과 정면으로 경쟁할 수 있는 AI가속기 칩 없이는 경쟁하기 어렵다는 사실을 인지하고 있다. 그래서 현재 인텔의 제품팀이 새 GPU를 개발하고 있으며 2년 후에 출시될 예정이다.
이와 동시에 AI 최적화 칩셋으로 신경망 프로세서(Nervana)), FPGAs(Altera), 컴퓨터 비전 ASICs(Movidius), 자율주행 자동차 ASICs(MobilEye) 등 여러 아키텍처 카테고리에서의 부상하고 있다. 또한 차세대 AI도전과제를 위해 자율 학습 신경구조 및 양자 컴퓨팅 칩을 개발하는 프로젝트도 있다.
- AI 임계치(tolerances)
모든 AI가속기 하드웨어 혁신은 관련된 운영 및 경제적 허용 한계치 내에서 정의된 지표를 달성하는 능력을 갖춰야 한다. 즉 운영 지표에서 모든 AI칩셋은 폼팩터, 에너지 효율, 열 및 전자기 발생, 견고함 측면에서 관련된 제약을 준수해야 한다.
또 경제적인 지표에서는 적용 티어와 과업에 대해 성능과 소유 비용 측면에서 경쟁력이 있어야 한다. 이를 측정한 벤치마크 결과는 AI가속기 기술이 경쟁적인 시장에서 살아남을 수 있는 가격-성능 프로필이 있는지 판단하는데 있어서 핵심 인자가 될 것이다.
워크로드 최적화 AI 아키텍처를 추구하는 업계는 개발, 교육, 운영화, 추론을 포함한 AI업무를 수행하기 위해 가장 빠르고 확장성이 뛰어나며 가장 에너지 효율적이고 가장 저렴한 하드웨어, 소프트웨어, 클라우드 플랫폼을 선택하려 할 것이다.
AI 가속기 ASIC의 다양성
AI 가속기 하드웨어 아키텍처는 모노컬처와는 반대이다. 나무 다양하고 빠르게 발전하기 때문에 이 시장의 무자비한 혁신 속도를 따라잡기가 어렵다.
엔비디아와 인텔 등의 핵심 AI칩셋 제조사들 외에도 플랫폼별 AI작업 부하를 위한 ASIC가 다양하다. 최근의 여러 뉴스 항목에서 이런 트렌드를 확인할 수 있다.
- 마이크로소프트는 홀로렌즈 증강현실 헤드셋을 위한 AI칩을 준비하고 있다.
- 구글은 구글 클라우드 플랫폼의 AI 앱을 위해 제공되는 특수 NNPU인 텐서 처리 장치를 보유하고 있다.
- 아마존은 알렉사 가정용 비서를 위한 AI칩을 개발하고 있다는 보도다.
- 애플은 시리와 페이스ID에 사용할 AI 프로세서를 개발하고 있다.
- 테슬라(Tesla)는 자율주행 전기 자동차를 위한 AI 프로세서를 개발하고 있다.
AI 가속기 벤치마크 프레임워크의 등장
AI 가속기 시장에서의 교차 벤더 협력 관계가 더욱 복잡하게 성장하고 있으며 중첩되고 있다. 예를 들어, 중국에 있는 기술 유력 집단 바이두(Baidu)가 인텔 및 엔비디아와 어떻게 별도로 협력하고 있는지 생각해 보자.
원문보기
Jul 10, 2018
데이터 폭증시대… 클라우드 보완한 '에지 컴퓨팅' 뜬다
기존 클라우드 컴퓨팅은 중앙서버가 모든 정보 처리 데이터 몰리면 시간 지연
'에지'는 네트워크 말단에서 데이터 분산해 실시간 처리 5G·자율주행차 등 핵심 기술
HPE, 4년간 40억弗 투입, MS·델테크놀로지스도 박차
앞으로 4년간 에지 컴퓨팅에 40억달러(약 4조원)를 투자할 계획이다. 에지 컴퓨팅은 기업용 정보기술(IT)의 진화를 촉진할 것이다.”
지난달 18일 미국 라스베이거스에서 열린 휴렛팩커드엔터프라이즈(HPE)의 기술 발표 행사 ‘HPE 디스커버 2018’에서 안토니오 네리 HPE 최고경영자(CEO)는 이 같은 사업계획을 발표했다. 2015년 이후 지속적으로 연구개발(R&D)비를 줄여온 HPE가 3년 만에 대규모 투자를 결정했는데 그 분야가 에지 컴퓨팅이다.
마이크로소프트(MS)도 지난 4월 에지 컴퓨팅과 사물인터넷(IoT) 분야에 50억달러를 투자하겠다고 발표했다. ‘PC업계의 전설’ 마이클 델 회장이 이끄는 델테크놀로지스 역시 지난해 10월 에지 컴퓨팅에 10억달러를 투자하겠다고 밝혔다. 에지 컴퓨팅 기술이 뭐길래 세계 IT 기업들이 앞다퉈 투자에 나선 것일까.
◆중앙처리가 아닌 분산처리
영어 단어 에지(edge)는 ‘가장자리’라는 뜻이다. 에지 컴퓨팅은 네트워크의 중앙이 아니라 가장자리에서 데이터를 처리한다는 의미다. 중앙 집중 처리 방식인 ‘클라우드 컴퓨팅’의 반대 개념이다.
클라우드 컴퓨팅은 일상 속으로 깊숙이 파고들었다. 사진을 클라우드 저장공간에 올리는 것부터 유튜브 영상을 온라인으로 편집하는 일, 웹브라우저로 프레젠테이션 자료를 만드는 일 등이 모두 클라우드 컴퓨팅에 포함된다.
클라우드 컴퓨팅은 쉽게 말해 고성능 컴퓨터가 업무를 대신 처리하는 기술이다. 사용자는 데이터 저장·처리, 콘텐츠 사용 등을 네트워크 중앙에 있는 서버에 맡길 수 있다. 컴퓨터 시스템 구축 및 유지·보수 비용을 아낄 수 있어 기업들 사이에서 인기가 높다. 최근에는 머신러닝, 빅데이터 처리 등 고성능 시스템이 필요한 업무를 클라우드 컴퓨팅이 대체하고 있다. 아마존의 아마존웹서비스(AWS), MS의 애저가 대표적인 클라우드 컴퓨팅 서비스다.
그러나 IoT 기기가 본격 보급되면서 클라우드 컴퓨팅은 한계에 부딪혔다. IoT 기기가 제공하는 데이터가 폭증하면서 중앙 컴퓨터가 이를 모두 처리하기 버거워졌다. 데이터를 처리하는 데 걸리는 시간도 문제점으로 떠올랐다.
에지 컴퓨팅은 이런 한계를 분산처리 기술로 보완한다. 각 IoT 기기에서 분석할 수 있는 데이터는 현장에서 바로 처리한다는 개념이다. 자율주행, 스마트팩토리, 가상현실(VR) 등 즉시 대처가 필요한 기술이 떠오르면서 에지 컴퓨팅은 4차 산업혁명의 필수 기술로 주목받고 있다.
◆5G·인공지능 발전 따라 부각
에지 컴퓨팅은 인공지능(AI) 기술 발전으로 부각됐다. AI를 오프라인에서 구현할 수 있게 되면서 IoT 기기를 통해 자체적인 데이터 처리가 가능해진 것이다. 구글이 지난해 10월 공개한 AI 카메라 ‘클립스’가 그렇다. 인텔의 AI 전용칩 모비디우스를 탑재해 사람 얼굴을 학습하거나 특정 순간을 자동으로 포착하는 기기다. 아마존이 지난해 11월 발표한 AI 카메라 ‘딥렌즈’도 같은 개념의 기기다.
5세대 이동통신(5G) 서비스 도입도 에지 컴퓨팅이 뜨는 배경 중 하나다. 내년 상반기 한국을 시작으로 5G 서비스가 상용화되면 초고속·초저지연 데이터 전송이 가능해져 IoT 기기의 통신 능력이 향상된다. 통신사들은 사용자 가까운 곳에 모바일 에지 컴퓨팅(MEC) 환경을 구축해 데이터 지연시간을 줄이면서 망의 혼잡도를 낮추는 것을 목표로 삼고 있다. 에지 컴퓨팅이 5G 서비스의 핵심 기술인 셈이다.
글로벌 시장조사기관들은 에지 컴퓨팅을 IT 기업의 새 먹거리로 주목한다. 가트너는 ‘2018년 10대 전략기술’ 리스트에 에지 컴퓨팅 기술을 올렸다. 트렌드포스는 에지 컴퓨팅 시장이 2022년까지 연평균 30% 이상 성장할 것으로 내다봤다.
정보통신기술진흥센터(IITP)는 지난 4월 발간한 보고서를 통해 “한국 기업도 컴퓨팅 시장의 새로운 트렌드를 인지하고 적합한 인프라 투자와 기술 개발을 강화할 필요가 있다”고 권고했다.
■에지 컴퓨팅
분산돼 있는 소형 서버가 데이터를 실시간 처리하는 기술이다. 네트워크 가장자리(에지)에서 먼저 데이터를 처리한다는 의미를 담고 있다. 중앙 서버가 모든 데이터를 처리하는 클라우드 컴퓨팅(cloud computing)과 대비된다. 실시간 대응이 필요한 자율주행, 스마트팩토리 등의 핵심 기술로 꼽힌다.
배태웅 기자 btu104@hankyung.com
'에지'는 네트워크 말단에서 데이터 분산해 실시간 처리 5G·자율주행차 등 핵심 기술
HPE, 4년간 40억弗 투입, MS·델테크놀로지스도 박차
앞으로 4년간 에지 컴퓨팅에 40억달러(약 4조원)를 투자할 계획이다. 에지 컴퓨팅은 기업용 정보기술(IT)의 진화를 촉진할 것이다.”
지난달 18일 미국 라스베이거스에서 열린 휴렛팩커드엔터프라이즈(HPE)의 기술 발표 행사 ‘HPE 디스커버 2018’에서 안토니오 네리 HPE 최고경영자(CEO)는 이 같은 사업계획을 발표했다. 2015년 이후 지속적으로 연구개발(R&D)비를 줄여온 HPE가 3년 만에 대규모 투자를 결정했는데 그 분야가 에지 컴퓨팅이다.
마이크로소프트(MS)도 지난 4월 에지 컴퓨팅과 사물인터넷(IoT) 분야에 50억달러를 투자하겠다고 발표했다. ‘PC업계의 전설’ 마이클 델 회장이 이끄는 델테크놀로지스 역시 지난해 10월 에지 컴퓨팅에 10억달러를 투자하겠다고 밝혔다. 에지 컴퓨팅 기술이 뭐길래 세계 IT 기업들이 앞다퉈 투자에 나선 것일까.
◆중앙처리가 아닌 분산처리
영어 단어 에지(edge)는 ‘가장자리’라는 뜻이다. 에지 컴퓨팅은 네트워크의 중앙이 아니라 가장자리에서 데이터를 처리한다는 의미다. 중앙 집중 처리 방식인 ‘클라우드 컴퓨팅’의 반대 개념이다.
클라우드 컴퓨팅은 일상 속으로 깊숙이 파고들었다. 사진을 클라우드 저장공간에 올리는 것부터 유튜브 영상을 온라인으로 편집하는 일, 웹브라우저로 프레젠테이션 자료를 만드는 일 등이 모두 클라우드 컴퓨팅에 포함된다.
클라우드 컴퓨팅은 쉽게 말해 고성능 컴퓨터가 업무를 대신 처리하는 기술이다. 사용자는 데이터 저장·처리, 콘텐츠 사용 등을 네트워크 중앙에 있는 서버에 맡길 수 있다. 컴퓨터 시스템 구축 및 유지·보수 비용을 아낄 수 있어 기업들 사이에서 인기가 높다. 최근에는 머신러닝, 빅데이터 처리 등 고성능 시스템이 필요한 업무를 클라우드 컴퓨팅이 대체하고 있다. 아마존의 아마존웹서비스(AWS), MS의 애저가 대표적인 클라우드 컴퓨팅 서비스다.
그러나 IoT 기기가 본격 보급되면서 클라우드 컴퓨팅은 한계에 부딪혔다. IoT 기기가 제공하는 데이터가 폭증하면서 중앙 컴퓨터가 이를 모두 처리하기 버거워졌다. 데이터를 처리하는 데 걸리는 시간도 문제점으로 떠올랐다.
에지 컴퓨팅은 이런 한계를 분산처리 기술로 보완한다. 각 IoT 기기에서 분석할 수 있는 데이터는 현장에서 바로 처리한다는 개념이다. 자율주행, 스마트팩토리, 가상현실(VR) 등 즉시 대처가 필요한 기술이 떠오르면서 에지 컴퓨팅은 4차 산업혁명의 필수 기술로 주목받고 있다.
◆5G·인공지능 발전 따라 부각
에지 컴퓨팅은 인공지능(AI) 기술 발전으로 부각됐다. AI를 오프라인에서 구현할 수 있게 되면서 IoT 기기를 통해 자체적인 데이터 처리가 가능해진 것이다. 구글이 지난해 10월 공개한 AI 카메라 ‘클립스’가 그렇다. 인텔의 AI 전용칩 모비디우스를 탑재해 사람 얼굴을 학습하거나 특정 순간을 자동으로 포착하는 기기다. 아마존이 지난해 11월 발표한 AI 카메라 ‘딥렌즈’도 같은 개념의 기기다.
5세대 이동통신(5G) 서비스 도입도 에지 컴퓨팅이 뜨는 배경 중 하나다. 내년 상반기 한국을 시작으로 5G 서비스가 상용화되면 초고속·초저지연 데이터 전송이 가능해져 IoT 기기의 통신 능력이 향상된다. 통신사들은 사용자 가까운 곳에 모바일 에지 컴퓨팅(MEC) 환경을 구축해 데이터 지연시간을 줄이면서 망의 혼잡도를 낮추는 것을 목표로 삼고 있다. 에지 컴퓨팅이 5G 서비스의 핵심 기술인 셈이다.
글로벌 시장조사기관들은 에지 컴퓨팅을 IT 기업의 새 먹거리로 주목한다. 가트너는 ‘2018년 10대 전략기술’ 리스트에 에지 컴퓨팅 기술을 올렸다. 트렌드포스는 에지 컴퓨팅 시장이 2022년까지 연평균 30% 이상 성장할 것으로 내다봤다.
정보통신기술진흥센터(IITP)는 지난 4월 발간한 보고서를 통해 “한국 기업도 컴퓨팅 시장의 새로운 트렌드를 인지하고 적합한 인프라 투자와 기술 개발을 강화할 필요가 있다”고 권고했다.
■에지 컴퓨팅
분산돼 있는 소형 서버가 데이터를 실시간 처리하는 기술이다. 네트워크 가장자리(에지)에서 먼저 데이터를 처리한다는 의미를 담고 있다. 중앙 서버가 모든 데이터를 처리하는 클라우드 컴퓨팅(cloud computing)과 대비된다. 실시간 대응이 필요한 자율주행, 스마트팩토리 등의 핵심 기술로 꼽힌다.
배태웅 기자 btu104@hankyung.com
Subscribe to:
Posts (Atom)