Nov 28, 2018

미 연방수사국, 원격데스크탑 기술오류가 온라인 보안위협 가중 경고

FBI warns companies about hackers increasingly abusing RDP connections

최근 미국의 연방수사국 FBI의 인터넷 범죄수사불평센터에서는 원격데스크탑 프로토콜로 인해 온라인 상의 보안위협이 가중되고 있음을 심각하게 경고한 것으로 나타나 관련 내용을 살펴보기로 한다.

원격데스크탑 프로토콜이라 불리우는 RDP(Remote Desktop Protocol)는 지난 90년대 Microsoft社에서 개발한 독점기술로서 사용자의 컴퓨터에 원격으로 로그인하여 마우스와 키보드 입력 등 시각적 인터페이스를 통해 컴퓨터를 조종할 수 있는 기술로 알려져있다 하겠다. 이러한 원격데스크탑 기술이 가정용 컴퓨터에서는 거의 사용이 되고 있지 않으나, 기업용 네트워크를 활용하는 서버나 컴퓨터 등은 원격으로 시스템 관리자가 접근할 수 없는 경우 해당 기술을 활용해오고 있는 것으로 알려져있다 하겠다.

이러한 기술활용실태와 더불어 FBI는 지난 2016년 중반부터 원격데스크탑 연결이 가능한 컴퓨터의 수가 지속적으로 증가했음을 언급하였는데, 2016년 초기에는 약 3천 3배개여 개의 원격포트가 활성화된 9백만 대의 장치가 있음이 확인되었으며, 1년이 지난 뒤에는 해당 장치가 1.1천만 대로 증가한 것으로 나타났다고 한다.

사이버해커들 또한 이러한 원격테스크탑을 활용하는 기기의 수가 증가함에 따라 사이버공격의 주요 채널로 활용하기 시작하였으며, 지난 수 년 간 원격데스크탑 프로토콜이 연결된 컴퓨터를 통해 해커들이 네트워크를 장악하려는 시도를 이행하였다는 사실을 확인한 보안사고 보고서가 끊임없이 발생하게 되었다고 한다. 이는 현재 전 세계적으로 화제가 되고 있는 랜섬웨어를 통한 사이버공격보다 많은 수치를 기록하고 있으며, 해커들이 원격데스크탑 프로토콜을 악용해 네트워크에 침입하여 무수한 시스템과 컴퓨터를 장악하기 위해 랜섬웨어를 활용한 사례도 파악되었다고 한다.

실제 해커가 시스템이나 컴퓨터에 잠입하기 위해 활용하는 3가지 방법은 아래와 같다고 한다;

1. 시스템 관리자가 서버에 원격데스크탑 프로토콜 접근을 활성화하였으나 암호를 설정하지 않는 경우, 포트 3389에서 컴퓨터 IP주소에 접근하는 모든 사용자로 엔터키를 눌러 로그인할 수 있음
2. 로그인 자격증명을 추정해 사전 공격 방식으로 공통된 사용자명과 암호를 조합하여 조합가능한 모든 경우의 수를 대입하는 브루트 포스 공격을 시행 (brute-force attack)
3. 원격데스크탑 프로토콜에 대한 보안취약점을 노린 악성코드를 활용해 공개된 포트에 침투시킴

하지만 모든 원격데스크탑 프로토콜의 손상이 데이터 유출이나 악성 행위를 초래하지는 않는 것으로 조사되었다고는 하지만, 해킹되거나 보안성이 유출된 원격데스크탑 프로토콜은 온라인 상에서 암묵적인 거래가 이루어지고 있어 또 다른 부차적인 보안위협의 촉매제가 되고 있는 것이 아니냐는 우려도 제기되고 있는 실정이라 하겠다.

이번 FBI의 경고를 통해 기업 및 조직들이 자신들이 활용하고 있는 원격데스크탑 프로토콜 기술의 보안취약점을 인지하고 이에 대비할 수 있는 개선책이나 보완책을 시급히 마련해야 할 시기가 도래한 것으로 보인다.

원문보기

기업형 인공지능의 다음 단계는 자동화된 에이전트가 될 것으로 예상

Autonomous agents are the next phase of enterprise AI, claims Fetch.AI

현재 기업들이 구현해놓은 인공지능의 유용성은 비용절감과 효율성 증진을 위해 반복적인 프로세스를 자동화하는데 주 목적이 있다 볼 수 있겠다. 일례로 고객센터로 유입되는 간단한 고객문의와 스팸 필터, 그리고 사기탐지 작업을 처리하는 챗봇 등이 해당된다 볼 수 있겠는데, 이러한 유형의 작업들은 인간보다 기기가 훨씬 빠르고 효율적인 업무수행이 가능하며 실수한 내용을 학습하여 이를 수정해나갈 수 있기 때문이라 하겠다.

하지만 만일 인공지능이 협상이나 자산과 같은 데이터의 가치를 밝혀내는 복잡한 임무를 담당하게 될 수 있을까? 미국 캠브리지의 스타트업인 Fetch.AI社에 의하면, 인류가 나아가야 할 다음 방향이 다름아닌 자동화된 에이전트의 구현이라는 주장이 제기되어 관련 내용을 조사해보기로 한다.

Fetch.AI社가 개발한 인공지능은 실제 세상이 존재물들 (호텔 객실, 비행기 좌석, 물리적 통화자산 등)을 자동화된 경제적 에이전트로서 대표하며, 공개 경제 프레임워크라 불리우는 분산형 플랫폼을 통해 어떠한 인간의 개입없이 미리 정의된 상황에 의거해 최적의 결과물을 찾아내는 업무를 수행한다고 한다.

이러한 가상의 세계와 상호작용하는 에이전트들을 통해 가상 세계 내 모든 자동화 에이전트들의 집합적 지능을 전담하고 이들 사이의 각종 데이터 처리나 의사결정의 지원은 스마트 원장기술을 통해 이루어질 것으로 알려지고 있다 하겠다.

상기 Fetch.AI 플랫폼은 2019년 베타버전이 출시될 예쩡이지만, 현재 과학장비 예약 플랫폼인 Clustermarket社와의 협약을 통해 보다 빠른 출시가 이루어질 수 있을 것으로 보이며, 기존 전문화되고 값비싼 가격에 소량이 소모되던 과학 실험용 장비들이 Clustermarket社에서 제공하는 연구기관 및 기업용 플랫폼을 통해 장비와 서비스를 제공할 수 있는 온라인 마켓플레이스 형태로 활용될 것으로 알려지고 있다.

기업용 인공지능이 비용절감과 관련해 다양한 형태로 도입이 우선 이루어지는 형태가 주를 이루었으나, 이제 기업의 데이터 저장공간을 활용해 새로운 활용도를 찾게 만드는 방식으로 전환되어감에 따라 자체 플랫폼을 통해 외부 도구나 플랫폼의 도움없이도 데이터, 모델, 알고리즘을 안전하게 공유해 새로운 인사이트를 도출해낼 수 있을 길이 열리게 될 것으로 예상되고 있다 하겠다.

원문보기

멀티클라우드 기술개발 동향 및 실 도입 사례 분석

2018-10-10 Why should we be looking to multi-cloud?

지난 2017년 Gartner社에서 개최한 심포지엄에 참석한 AWS社의 최고경영자 Andrew Jassy씨는 단일 클라우드는 존재치 않을 것으로 예상되며, 복수의 서비스 제공방식을 취하는 대형 클라우드 기업체들은 소수에 불과하나 이러한 추세는 증가해나갈 것이라는 주장을 내세운지 1년이 지났고, 현재 이러한 예상이 적중하여 약 80퍼센트 이상의 기업체들이 멀티 클라우드 방식으로 전환하고 있음이 최근 발표된 연구보고서에 나타나 기업체들의 멀티 클라우드 도입 현황을 살펴보고자 한다.

Rightscale社에서 발간한 클라우드 실태보고서에 의하면, 전체 조사대상 기업들의 약 80퍼센트 가량이 멀티 클라우드로 전환하고 있음이 나타났으며, 이러한 주요 원인은 어플리케이션 별 가장 적합한 클라우드를 선택할 수 있는 자유권이 주어지기 때문인 것으로 나타났다고 한다. 물론 이러한 멀티 클라우드 방식이 일 단위에 기반을 둔 방식 전환을 의미하지는 않으며 클라우드를 통해 데이터를 저장하는 방식이 현재도 매우 유용하게 활용되고 있는 것으로 나타났다고 한다.

또한 지난 3년 간 서로 다른 클라우드 서비스 제공업체와 함께 1 페타바이트의 데이터를 저장하는 비용을 조사함에 있어 초기 투여비용은 AWS社에 저장하는 비용이 약 75만 달러가 발생하였으며, 저장과 복제 과정에서 약 150만 달러의 비용이 발생하였다고 한다. 여기서 단일 클라우드에 데이터를 저장한 뒤 다른 클라우드에 데이터를 복사함으로서 비용을 빠르게 낮출 수 있음이 발견되었다고 한다. 또한 Amazon社의 AWS와 Microsoft社의 Azure 서비스의 결합은 기존 AWS 보다 저렴하고 동일한 수준의 서비스를 제공할 수 있을 뿐 아니라 Wasabi 또는 Backblaze 같은 클라우드 저장서비스 제공업체들을 사용할 경우, 데이터 백업비용이 AWS를 단독으로 사용할 때와 거의 동일한 것으로 나타났다고 한다.

뿐만 아니라 클라우드 내에서 데이터를 분석하는 작업을 통해 데이터 분석에 소요되는 높은 비용소요를 낮출 수 있는 좋은 방안으로 대두되고 있는데, 이는 데이터를 클라우드로 전송한 뒤 데이터 분석을 수행하면, 데이터를 삭제하고 결과값을 유지해야하는 어플리케이션을 사용할 경우 추가적인 비용을 지불하는 과정에서 소요되는 비용지출을 막는 효과도 누릴 수 있게 된다고 한다.

위와 같은 작업을 이행한 선두적인 기업은 아마 뉴욕타임즈일 것으로 예상되고 있는데, 이들은 자신들이 보유하고 있는 신문의 이미지를 AWS로 저장시켜 모든 데이터에서 문자 인식 및 텍스트를 추출한 뒤 클라우드에 저장한 모든 이미지를 버려 유지비용을 절감시키는 작업을 이행한 것으로 나타났다고 한다.

이처럼 멀티 클라우드는 확장가능한 분석이나 컨텐츠 배포, 버스트 컴퓨팅과 같은 다양한 잠재 어플리케이션을 보유하고 있으며, 데이터의 위치나 저장비용과 같이 데이터 검색의 효율성에 일부 해결해야 할 과제들이 남아있지만, 멀티 클라우드를 통한 데이터관리에 아래 4가지 주요 원칙을 중심으로 과제를 해결해나가면 될 것으로 예상된다고 한다;

1. 모든 클라우드들은 단일 API를 보유할 것
2. 데이터를 클라우드로 전송할 때 고유의 데이터 형식을 유지할 것
3. 네트워크 대신 보유자원을 활용해 하나의 클라우드에서 다른 클라우드로 이동할 때, 데이터를 푸시하거나 멀티 클라우드를 관리할 수 있는 기능을 포함시킬 것
4. 메타데이터를 검색할 수 있게 지원할 것

상기 4가지 요소들 중 메타데이터의 검색이 가장 중요시 되고 있으며, 이는 사용 중인 모든 클라우드 전반에 걸쳐 데이터를 검색할 수 있게 해주는 환경을 제공해주기 때문이라 볼 수 있다고 한다. 이러한 환경을 통해 데이터 저장 시 태그를 지정할 경우, 정책결정이나 내용을 변경할 경우 보다 손쉬운 데이터 검색이 가능해지기 때문이라고 한다.

서비스 공급업체들 간 데이터를 저장하게되면 데이터 복원기능이 증가하고 비용도 절감되는 효과가 있으나 데이터 백업과 관련된 문제가 발생할 수 있는 바, 자신의 기업환경에 적합한 데이터 전략을 수립하여 필요한 데이터를 취급함에 있어 보다 효율적인 디지털 환경을 구축하는 탄력성을 기업들이 발빠르게 구축해야 할 것으로 예상되고 있다 하겠다.

원문보기

Oct 22, 2018

"AMD 대 인텔" 프로세서 최강자 전쟁

Dave Stevenson | TechAdvisor

AMD와 인텔의 유서깊은 경쟁 관계는 해가 지나도 사그라질 기미가 보이질 않는다. 12nm 및 14nm 전선의 해는 이미 저물기 시작했지만, 이제는 7nm 또는 10nm 고지를 누가 먼저 선점하는가를 놓고 경쟁하고 있다. 둘 가운데 먼저 선점하는 쪽이 엄청난 이점을 가져가기 때문이다. 아마도 내년쯤이면 이 경쟁의 승자를 알 수 있을 듯하다.

10여 년 전, 인텔과 AMD는 명실공히 세계의 정상에 서 있었다. 노트북이 있는 곳이면 어디서나 인텔 고유의 로고를 볼 수 있었고, 2006년 그래픽 실력자인 ATI를 인수한 AMD는 밝은 미래가 보장된 것처럼 보였다. 하지만 자만했던 탓일까? 두 기업은 세월의 변화를 기대만큼 제대로 쫓아가지 못했다.

IT 산업의 지평이 빠르게 변하고 있음에도 불구하고, 모바일 컴퓨팅으로의 전환이 느렸던 두 기업 탓에 다른 소규모 칩 제조업체들(가장 대표적으로는 ARM이 있지만 그 외에도 VIA, 퀄컴 등)이 새로운 시장의 상당 부분을 장악할 수 있게 되었다.

몇 년 전까지 다소 어두웠던 전망을 떨쳐 버리고 게이밍 PC가 부활하고 있는 가운데 노트북 선택지는 그 어느 때보다 더 다양해졌고, 이제는 오히려 태블릿 시장이 약세를 보이고 있는 상황이다.

AMD와 인텔 프로세서의 현 주소
2018년도 이제 마무리 단계에 접어들어가는 가운데, 얼마 전 인텔이 9세대 프로세서를 발표했다. 8세대 커피 레이크보다 한 단계 업그레이드 된 것은 사실이지만, 그렇다고 비약적으로 개선된 점이 보이지도 않는다. 미드 레인지 제품군으로부터 하이퍼스레딩을 배제하고, 소비자 데스크톱 프로세서의 가장 최상급 제품군에 9세대 i9을 포함시킨 선택이 눈에 띈다.

AMD의 라이젠 2(Ryzen 2) 제품군은 올해 초에 엄청난 강세를 보였으며 아직까지도 인텔의 최상급 제품에 대항해 강력한 경쟁력을 자랑하고 있다. 물론 싱글 코어 부문에서는 인텔에게 처참하게 밀리고 있지만 말이다(이 점에 대해서는 이견의 여지가 없을 것이다).

하지만 인텔이 싱글 코어 부문에서 AMD보다 앞선 것은 어제 오늘 일은 아니다. 게다가 AMD는 매우 훌륭한 에어쿨러와 CPU를 함께 제공하며, 코드당 훨씬 더 나은 가치 제안을 제공한다. AMD 프로세서는 결코 느리다고 할 수 없으며, 매우 무거운 워크로드도 쉽게 처리할 수 있다. 비록 인텔이 시장에서 AMD보다 선방하고 있는 것은 사실이지만, 여기에는 그만큼의 비용이 따른다.

현실적으로 봤을 때, 인텔이 싱글 코어 성능에서 보이는 강세는 전체적으로 보면 큰 차이를 만들어 내지는 못하겠지만 그럼에도 불구하고 인텔이 이 분야에서 강세를 보이는 것은 사실이다.

AMD의 라이젠 3가 내년 초에 출시될 예정이지만, 정작 인텔과 AMD의 다음 대규모 격전지는 10nm 또는 7nm 기술이 될 것이다. AMD와 인텔 모두 소규모 나노 아키텍처에서 안정적인 칩을 생산하기 위해 서두르고 있으며, 먼저 이 분야를 선점한 쪽이 막대한 이점을 갖게 될 것이다.

인텔과 AMD의 경쟁이 중요한 이유
인텔과 AMD의 경쟁이 중요한 이유는 전통적인 노트북이나 PC를 구매하려면 여전히 소비자들에게는 AMD와 인텔 프로세서 외에는 선택지가 없기 때문이다. 하지만 PC가 소비자 시장에서 다소 슬럼프를 겪는다고 해서 인텔이나 AMD가 망할 것이라고 생각해서는 곤란하다. 당연한 얘기지만 인텔은 PC나 노트북 프로세서 외에도 많은 수입원을 확보하고 있다.

인텔은 그 외에도 그래픽 프로세서, 유/무선 네트워크 어댑터, 서버 및 워크스테이션 프로세서와 부품들, 셋톱 박스 부품 등을 생산한다. 스마트폰 중에도 상당수가 인텔 칩을 사용한다. 아이폰 X 가운데 일부 모델들은 인텔 모뎀을 사용하기도 한다.

AMD는 인텔보다는 다소 규모가 작은 업체다. 인텔의 경우 미국 외에도 아일랜드, 이스라엘, 중국 등지에 있는 생산 공장에서 자체 칩을 생산하는 반면, AMD는 2009년 마지막 남은 공장조차도 매각했다. 현재는 ARM, VIA, 미디어텍(MediaTek) 등의 기업과 마찬가지로 칩 설계는 AMD가 하고, 생산은 아웃소싱하고 있다. 마이크로프로세서 생산에는 엄청나게 많은 비용이 들어가기 때문이다.

두 업체가 걸어온 길
두 기업 모두 긴 혁신의 역사를 가지고 있다. 인텔은 1974년 8080 프로세서를 탄생시키며 x86 프로세서의 기반을 닦았다. 이는 지금으로부터 30여 년 전에 데스크탑 PC의 기반을 마련하는 역할을 했다.

인텔은 영리한 마케팅을 하기로 유명한 기업이기도 하다. 2000년대 중반에 저전력 프로세서와 무선 칩, 그리고 모바일 칩셋이라는 구성으로 출시된 인텔의 센트리노 플랫폼은 배터리 수명을 비약적으로 늘린, 데스크톱 클래스의 컴퓨팅 파워를 자랑하는 칩이라는 명성을 얻으며 시장을 휩쓸었다. X86 브랜드에서 '펜티엄'으로의 전환 역시 인텔의 똑똑한 PR 역량을 여실히 보여준 사례다.

엄청난 자금력과 기발한 발상으로 경쟁업체를 압도하는 인텔 마케팅부의 화려한 경력은 그 이후로도 계속된다. 인텔의 울트라북 트레이드마크가 성공한 것은 사실 마이크로소프트의 윈도우 8의 공이 작지 않았지만, 그렇다고 해서 소비자들이 원하는 것은 클럭 주파수나 어려운 기계가 아니라 간편하고 단순한 브랜드라는 것을 간파한 인텔 마케팅의 승리가 거저 얻어진 것은 아니었다.

한편, AMD는 예전에도 지금도 일종의 아웃사이더와 같은 포지션을 유지하고 있다. 마케팅 컨설턴트 업체 머큐리 리서치(Mercury Research)의 보고서에 따르면, AMD의 시장 점유율은 지난 2006년 22% 가량이었으며 현재는 콘솔 시장에서의 강세 덕분에 약 17% 정도를 유지하고 있다. 엑스박스 원과 플레이스테이션 4 모두 커스텀 8 코어 AMD '재규어' 프로세서를 채택하고 있다.

AMD가 가장 최근 시행한 대규모 혁신은 아마도 2006년 GPU 제조업체인 ATI를 인수한 일일 것이다. 56억 달러에 ATI를 인수한 AMD는 이제 통합 그래픽 칩(integrated graphics chips, CPU와 GPU가 하나의 칩에 병합됨)을 제조할 수 있다는 점에서 인텔과 어깨를 나란히 하게 됐다.

그 결과 그래픽 마력은 떨어지지만 전력 소비와 열 출력을 크게 줄일 수 있었다. 이제 그 자체로 엄청난 마력을 자랑하는 그래픽 카드의 시대는 갔다는 것을, 그리고 실리콘의 미래가 컴퓨팅 파워의 증가만큼이나 전력 소모량과 크기를 줄이는 데 있다는 사실을 AMD는 일찌감치 간파했다. 실제로 오늘날 대부분의 사용자는 모바일 기기를 선택할 때 '더 빠른 것' 보다 '더 오래 가는 것'을 선택한다.

두 업체의 잘못된 행보
표면적으로만 보면, AMD와 인텔 모두 모바일 기기 시장이 폭발적으로 증가하는 상황에서 각자 사용자들의 요구사항을 충족시킬 준비가 되어 있는 것으로 보인다. 데스크톱 PC 시장이 침체기에 접어들고, 노트북 판매량은 증가했으며, 모바일 폰은 혁신이 절실한 상황이었다.

인텔은 이미 노트북용 센트리노 플랫폼으로 높은 평가를 받고 있는 상황이었으며, AMD의 튜리온(Turion)은 큰 차이로 2등인 상황에서 두 기업 모두 모바일이 시장의 미래가 될 것이라는 전망 하에 본격적인 경쟁 체제에 돌입했다.

초반은 인텔이 강세를 보였다. 혹시 '넷북'을 기억하는가. 넷북이란 게 세상에 나오기 전에는 500달러 이하의 가격대에서 노트북을 구매하기 위해서는 속도나 크기나, 배터리 수명도 어느 정도 포기해야만 했다.

영국에서 2007년 발매된 아수스 이 PC 700(Asus Eee PC 701) 같은 모델은 260달러 이하의 가격에 무게는 1kg 미만이었으며 LAN 게임 같은 것은 어려울 지 몰라도 기본적인 업무용 애플리케이션을 무리 없이 구동할 수 있었다. 무엇보다 (가장 중요한 것은) 웹 브라우저에서 애플리케이션을 구동할 수 있었다는 사실이다.

이와 같은 모델에는 어떤 프로세서가 사용됐을까. 바로 셀러론(Celeron)의 초 저전력 버전 프로세서였다.

넷북은 엄청난 상업적 성공을 거두었으며 인텔에서는 아톰(Atom) 프로세서를 내놓았다. 아톰 프로세서는 인텔의 실리콘 가운데 가장 싼 가격의 제품이었다. 초창기 아톰 CPU는 1,000개 묶음을 30달러 미만의 비용으로 구매할 수 있었으며 이런 가격 경쟁력 덕분에 넷북은 몇 년간 시장을 지배할 수 있었다. 이는 모두 소비자들이 작으면서도 값 싼 컴퓨터를 원했고, 모바일 프로세서 제조에서 풍부한 경험을 지닌 인텔이 이런 수요를 완벽하게 충족했기 때문이었다.

인텔에게 재앙은 태블릿이라는 모습으로 찾아왔다. 2008년 스티브 잡스는 "500달러 미만의 가격은 500달러 미만의 퀄리티 밖에 내지 못한다"고 말했으며, 2010년 1세대 아이패드를 출시하면서는 "넷북은 다른 기기보다 잘 난 것이 하나도 없다"고 말하기도 했다. 애플의 COO인 팀 쿡도 이에 동의하며 "넷북은 훌륭한 소비자 경험을 제공하지 못한다"고 말했다. 그렇게 아이패드의 시대가 도래했다.

인텔이나 AMD의 문제는 소비자의 선호도나, 모바일 기기의 강세를 점치지 못한 것이 아니었다. 문제는 폼 팩터였다. 아이패드는 2010년 첫 출시 당일에 무려 30만 대가 팔렸다. 전통적 폼 팩터의 노트북과 넷북, 전통적인 데스크톱 운영체제와 전통적인 x86 하드웨어를 채택한 인텔과 AMD는 잘못된 줄에 선 것이다.

사실 인텔, 마이크로소프트, 그리고 HP 모두 아이패드가 나오기 수 년 전에 이미 태블릿 제품을 출시해 보려고 노력했었다. 하지만 키보드와 마우스에 최적화 된 윈도우 운영체제와 짧은 배터리 수명, 그리고 두텁고 무거운 하드웨어 때문에 아무도 이들 기업의 태블릿을 사용하려 하지 않았다.

인텔이나 AMD가 곤란을 겪은 이유는 아이패드, 그리고 그 뒤를 이어 소니, 삼성 등에서 출시한 다른 태블릿들이 프로세서를 필요로 하지 않았기 때문이 아니라, 다르고 새로운 종류의 프로세서를 필요로 했기 때문이었다. SoC(system on chip)의 세계에서는 컴퓨터의 모든 기능이 단 하나의 칩에 내장되어 있었으며 이 분야는 이미 영국의 프로세서 기업 ARM이 꽉 쥐고 있었다.

ARM의 프로세서는 인텔이나 AMD 등이 선호하던 전통적인 칩과는 완전히 구조가 달랐다. ARM의 RISC(Reduced Instruction Set Computing) 프로세서는 x86 프로세서보다 구조적으로 훨씬 단순했으며, 이로 인해 비용도 전력 소모량도 더 적었다. 아이패드를 비롯한 후속 태블릿들이 시장을 장악해 나가면서 AMD와 인텔은 '버스를 놓친 게 아니냐'는 지적도 나왔다.

그렇게 2015년이 되자 넷북은 완전히 사망 선고를 받았고, 노트북보다 더 긴 배터리 수명과 더 싼 비용을 자랑하는 고성능 태블릿이 시장을 장악하게 됐다.

그 이후 x86 하드웨어의 오랜 우방이었던 마이크로소프트조차도 이 당시에는 인텔과 AMD를 등질 수 밖에 없었다. 2012년 출시된 윈도우 RT는 ARM 칩을 사용한 기기에서 구동이 가능한 최초의 윈도우 버전이었다. 이로써 마이크로소프트는 (최소한 이론적으로는) 저가형 태블릿 시장으로 갈 수 있는 길을 트게 된 것이며 동시에 인텔 입장에서는 한층 더 숨통을 조이는 선택이 되었다.

하지만 윈도우 RT 플랫폼은 결국 완전히 실패하고 말았다. 2013년 마이크로소프트는 판매되지 않은 윈도우 RT 기기들로 인해 9억 달러 규모의 감가상각을 감수해야 했다. 마이크로소프트 CFO 에이미 후드는 "우리는 분발해야 한다. 특히 모바일 기기 분야에서 말이다"고 말했지만 사실 이는 '분발' 정도로는 어림도 없을 만큼의 큰 손해였다.

2018년 현재, 시장에서는 아수스 노바고(Asus NovaGo)와 같은 퀄컴 프로세서를 장착한 윈도우 10 노트북이 팔리고 있다. 물론 인텔도 마이크로소프트에만 희망을 걸고 있지는 않다. 오늘날 인텔은 웨어러블과 같은 새로운 IT 분야로 시선을 돌리고 있다. 또 에어로 컴퓨트 보드(Aero Compute Board)와 리얼 센스(RealSense) 카메라를 통합하는 등 드론 분야에도 발을 담그고 있다. 태블릿, 웨어러블 및 울트라-포터블 컴퓨팅 세계에 비교적 늦게 진입했지만 인텔은 여전히 엄청난 저력을 보유한 채 추격하고 있다.

미래의 새로운 전장은 ‘게이밍 PC’
게임 산업은 매년 영국 경제에서 약 20억 파운드 규모를 차지한다. 그리고 게이밍 PC 분야에서 지배적인 위치를 차지하고 있는 것은 인텔이 아니라 AMD이다. 인텔 역시 3D 그래픽 칩을 생산하고 있기는 하지만 주 전공은 통합 그래픽 칩이다.

통합 그래픽 칩은 랩탑에 이상적이다. 통합 그래픽 프로세서를 사용하면 노트북 가격을 저렴하게 유지하면서도 전력 소모량을 줄일 수 있으며, 일반적인 생각과 달리 충분한 3D 프로세싱 파워를 제공할 수도 있다.

그러나 최신 게임을, 최신 콘솔이 민망해 질 정도의 고사양 그래픽으로 플레이 하고 싶다면 답은 언제나 독립적인 그래픽 카드를 사용하는 것이었으며 AMD는 바로 이 분야에서 앞서 나가고 있다.

현재 AMD는 저사양 수동 냉각형 카드에서부터 약 600달러 가량의 최신 RX Vega 64 카드에 이르기까지 다양한 범주의 옵션을 제공하고 있다. AMD는 독립 그래픽 카드 외의 다른 분야에서도 충분히 강세를 보이고 있다.

엑스박스 원, 플레이스테이션 4 외에 닌텐도 Wii U 역시 AMD의 GPU를 사용한다. AMD는 태블릿이나 하이브리드 같은 플랫폼 개발에서는 약세를 보일지 몰라도 많은 게이머들에게는 엄청난 찬사를 받고 있다.

인텔과 AMD CPU, 최종 선택은
데스크톱 PC를 조립하려 할 경우, AMD와 인텔 사이의 고민은 그 어느 때보다 첨예할 수 밖에 없다. 고려해야 할 요소도 무척 많다. 유명 온라인 유통 업체는 하나 같이 수백 가지의 CPU 선택지를 제공하고 있다. 예산이 한정적인 사용자라면 저가형 CPU 모델에서는 AMD가 확실한 강세를 보이고 있다. 그렇다고 해서 AMD가 하이엔드 제품을 내놓지 않는 것은 아니다. AMD의 라이젠 프로세서는 스레드리퍼(Threadripper)와 마찬가지로 인텔 CPU의 아성에 도전할 수 있는 수작이다.

지난 4월 19일 라이젠 2를 출시하면서 AMD는 이제 인텔의 최상위급 프로세서와 직접적으로 경쟁할 수 있는 칩 개발에 착수했다. 라이젠 2700x는 훨씬 더 저렴하면서도 뛰어난 스톡 쿨러(stock cooler)로 8700k와 직접적으로 경쟁할 예정이다. 현재 데스크톱 PC를 조립중인 독자가 있다면 꼭 한번 고려해 보기를 추천한다.

한편 기존에 인텔 CPU를 사용 중이면서 업그레이드를 고려하는 사용자의 경우 새로운 메인보드와 칩셋, 그리고 소켓으로 바꿔야 한다는 것 때문에 AMD로 건너가는 것이 망설여 질 수 있다. 인텔은 앞으로도 시장에 대한 지배력을 한동안 지속해 나갈 것으로 보이며 미드 레인지 및 하이 엔드 프로세서의 경우 엄청나게 다양한 선택지가 존재한다. 일상적인 컴퓨팅 작업을 위해서는 코어 i5 만으로도 충분할 수도 있다(현재 이 부문에서 최강자는 6코어 i5-8600K이다).

라이젠 5는 비슷하거나 더 적은 가격에 똑같이 6코어를 제공하며 인텔에 도전장을 내밀고 있다. 대부분 사용자가 그래픽 카드에서 아낀 돈으로 미드 레인지 CPU를 선택하는 상황에서는 AMD가 확실히 강점을 가질 수 있을 것이다.

절대 다수의 게이머들이 아직도 멀티코어 프로세서, 그 가운데서도 특히 4코어 이상 프로세서의 이점을 완전히 누리지 못하고 있다. 그러나 최신 미드 레인지 칩을 선택한다면 2개의 엑스트라 코어를 무료로 제공받게 되는 것이며 앞으로 출시될 게임들은 이런 프로세서를 필요로 하게 될 것이다. editor@itworld.co.kr

원문보기

Sep 28, 2018

韓클라우드 군침흘리는 美기업들…'데이터주권' 침탈 우려

美 '해외정보감시법 702조' 상원 통과에 따른 파장
美정보기관 영장없이 외국인 데이터기록 조회가능

미국 정보기관이 영장없이 외국인의 데이터기록을 볼 수 있도록 미국의 법이 개정되면서 아마존과 마이크로소프트(MS), 구글 등 미국기업의 클라우드 서비스를 이용하는 한국기업들의 데이터주권이 침해당할 수 있다는 우려가 제기되고 있다.

지난 1월 미국 상원은 미국 영토밖 외국인의 통신기록을 영장없이 조회할 수 있는 '해외정보감시법(FISA) 702조'를 통과시켰다. 'FISA 702조'는 미 국가안보국(NSA)이 테러 용의자 등 외국인이 국외에서 주고받은 이메일과 이동전화 통화·메시지 등을 영장없이 수집할 수 있도록 하고 있다. 즉, 미국 정보기관이나 수사기관은 한국인의 동의없이 데이터기록을 감청할 수 있는 것이다.

이 법이 시행됨에 따라 아마존이나 구글 등 미국기업들은 미국 정보기관이 요청하면 언제든지 외국인의 데이터기록을 제공해야 한다. 문제는 아마존이나 구글의 클라우드 서비스를 이용하는 국내기업들도 예외가 아니라는 점이다.

최근 정부는 데이터경제 활성화 차원에서 공공부문의 클라우드 시장까지 민간에 개방하기 위해 제도개선을 추진하고 있다. 이 민간기업에 미국 IT기업들도 포함돼 있다. 미국 정보기관이 자국의 IT기업을 압박해 한국기업의 데이터기록을 조회해도 이를 막을 길이 없다. 국내 기업들의 경영활동에 관한 모든 데이터가 고스란히 미국 정보기관에 넘어갈 수 있다는 얘기다.

업계 한 관계자는 "이 법에 따라 미국 국가안보국이나 연방수사국은 구글 등 자국 사업자들에게 외국인이 국외에서 주고받은 이메일과 이동전화 메시지 등에 대한 정보를 요청할 수 있다"면서 "데이터주권 침탈 우려가 큰 만큼 이에 대해 대비해야 한다"고 강조했다.

최근 과학기술정보통신부가 한미 자유무역협정(FTA) 재협상 과정에서 제기될 수 있는 클라우드 관련 정보보호 기준고시에 대한 설문조사를 진행한 것도 이와 무관하지 않다. 정부는 미국이 자국 기업을 위해 한국 클라우드 시장개방을 요구할 것에 대비하기 위해 최근 업계와 간담회도 마련해 의견을 청취했다.


현재 클라우드 시장1위는 아마존으로, 전세계의 33%를 차지하고 있다. MS가 13%로 그 뒤를 잇고 있다. 구글은 6%로 3위를 차지하고 있다. 이 3개사 점유율을 합치면 전체의 약 52%에 달한다. 특히 아마존과 MS는 국내에 데이터센터를 보유하고 있어, 국내 공공시장 진출이 가능한 상황이다.

Aug 24, 2018

AWS의 클라우드 구성 오류 문제, 해법은?

Dan Swinhoe | CSO

아마존이 AWS S3 구성 오류 확률을 줄이기 위해 2가지 신규 툴, 젤코바(Zelkova)와 타이로스(Tiros)를 준비 중이다. 이는 누가 데이터와 리소스에 접근하는가와 이들이 할 수 있는 것을 한층 명확히 정의할 것이다. 이들 툴은 액세스 컨트롤을 분석하고 평가하고, 고객의 클라우드 환경의 개방성을 매핑한다.

아마존웹서비스(AWS)는 고객의 클라우드 환경의 보안을 보장하는 데 늘 문제가 있다. 구성 오류는 흔한 일이고, 이로 인해 엄청난 양의 기밀 데이터가 노출되었다. 버라이즌(Verizon), 부즈 앨런(Booz Allen), 해밀턴(Hamilton), WWE 재단(the WWE Foundation), 알터릭스(Alteryx), 전미 신용 연맹(the U.S. National Credit Federation), 호주공영방송(the Australian Broadcasting Corporation, ABC), 액센추어(Accenture) 등은 구성 오류로 정보 노출을 경험하기도 했다.

AWS가 서비스의 보안을 개선하고, 구성 오류 확률을 낮추기 위해 과거 여러 노력을 했음에도 불구하고 이런 일이 벌어진 것이다. 지난해 아마존은 AWS에 저장된 기밀 데이터를 자동으로 발견하고 보호하도록 설계된 메이시(Macie)라는 머신러닝 툴을 도입하였고 아울러 기본 암호화, 상세 인벤토리 보고서, 권한 확인 등의 새 기능들로 S3 보안을 개선하였다.

2018년 2월 페덱스(FedEx)가 여권, 운전면허증, 고객 기록 등 10만 건이 넘는 문서를 노출시켰다는 뉴스가 나온 지 며칠 후 AWS는 S3 버킷 권한 확인 서비스를 모든 이용자에게 무료로 제공했다.

AWS 심플 스토리지 서비스(Simple Storage Service, S3)는 아마존의 객체 스토리지 상품이다. 스카이하이 네트웍스에 따르면, 전체 S3 버킷의 7%가 무제한으로 공공 접근이 가능하고 35%는 암호화되지 않은 상태다. 데이터가 노출되어 방치된 최근의 사례는 50만 대가 넘는 차량 추적 장치의 로그인 암호, 2억 개의 미국 투표자 기록, 미 육군 정보부에 속한 기밀 데이터 등이 있다. 해커들은 정보를 훔칠 뿐 아니라, 랜섬웨어로 데이터를 감금하였고, 암호 화폐를 채굴하기 위해 컴퓨팅 자원을 이용한 것으로 드러났다.

젤코바와 타이로스의 기능

젤코바와 타이로스는 AWS의 오토메이티드 리즈닝 그룹(Automated Reasoning Group, ARG)에 의해 개발되었다. 이 그룹은 아마존 제품용의 인증 툴과 기법을 개발한다. 자동 추론(Automated reasoning)은 시맨틱 기반의 추론을 바탕으로 수학식을 적용하여, 간단히 말해, 특정 문제에 답변하고, 정책들이 예상대로 작용하는지 검증하는 정형적 인증 기법이다. ARG는 AWS의 보안 팀에 속하고, 2년 이상 동안 툴들을 내부적으로 개발해왔다.

2018년 6월 처음 발표된 젤코바는 자동 추론을 이용해 정책들과 이들의 미래 결과를 분석했다. IAM(Identity and Access Management), S3 및 여타 리소스 정책과 호환되고, 조직이 벤치마크를 생성할 수 있게 해주고, 현재 정책 설정의 결과를 조직에게 알려준다. 예를 들어, S3 정책에 반하여 이용될 때 무단 이용자가 버킷을 읽거나 가필할 수 있는지 알려주는 식이다.

타이로스는 고객 네트워크 사이의 연결을 매핑한다. 예를 들어, 이는 고객의 EC2 인스턴스가 인터넷에서 접근 가능한지를 알려줄 수 있다.

젤코바와 타이로스는 내부 툴로서 시작되었다. 젤코바는 S3 대시보드의 일부로서, 그리고 AWS 메이시 안에서 내부적으로 사용된다. 투자관리 회사인 브리지워터 어소시에이츠(Bridgewater Associates)는 테스트 목적으로 이들을 조기에 사용할 수 있었다.

젤코바 발표 시 브리지워터 어소시에이츠의 수석 클라우드 보안 아키텍트인 댄 피블즈는 “젤코바를 이용해 브리지워터는 정책들이 데이터 외부 유출, 구성 오류, 여타 수많은 악의적이고 우발적인 부적절한 거동을 허용하지 않음을 검증하고 보장한다”면서 “젤코바는 우리의 보안 전문가가 자신이 이해한 바를 한번 부호화하면, 이들을 여타 유관 정책들에 기계적으로 적용한다. 따라서 오류가 나기 쉽고 느린 인간의 리뷰를 피하고, 동시에 우리는 IAM 정책의 정확성과 보안에 대해 높은 확신을 가질 수 있다”고 말했다.

이들 툴 중 어느 것도 현재 공개적으로 이용할 수 없다. 브리지워터는 이들이 ‘원시 상태(raw state)’이고, 특별히 이용자 친화적이지는 않다고 말한다. 아마존은 툴의 배포나 가격에 대해 정보를 제공하기를 거절했다.

아마존의 클라우드 구성 문제
아마존, 마이크로소프트 애저 등의 클라우드 사업자는 서비스에 대해 일정 수준의 보안을 제공하고, 권장 모범 관행을 제시하지만, 이들은 공유 보안 모델 하에서 운영되므로 고객이 대부분의 부담을 떠안아야 한다. 이 부분에서 종종 문제가 발생한다. 영국(UK) MSP 클라라넷의 사이트 안정성 수석 엔지니어인 스티브 스미스는 “AWS S3 버킷에 관해 보고되는 보안 문제는 플랫폼 자체와는 거의 무관하고, 이를 이용하는 사람들과 전적으로 유관하다. 이게 최대의 약점이다”고 지적했다.

이어서 스미스는 “AWS는 수많은 초기값들을 사려 깊게 설정하여 구성을 지원한다. 현재 S3 버킷은 기본값이 ‘프라이빗(private)’으로 설정되어 있다. 그러나 유감스럽게도, 플랫폼을 사용하는 법을 모른다면 일이 잘못되기 십상이다”고 덧붙였다.

전개 및 관리 툴의 복잡성, 교육의 결여, 관리자가 제어해야 할 서비스의 지속적인 증가, 그리고 보안 팀의 시야 밖에서 클라우드 환경은 쉽게 망가질 수 있다는 사실은 데이터 유출이 흔한 문제로 지속될 수밖에 없음을 의미한다.

로그 관리 및 애널리틱스 사업자인 (그리고 AWS 고객인) 수모 로직(Sumo Logic)의 CSO인 조지 거초우는 “소비자는 공유 책임 모형(shared responsibility model)을 이해하고 데이터를 보호하는 모범 관행을 적용해야 한다”면서 “AWS는 이렇다 할 교육을 제공하지는 않는다. 그러면 소비자는 아무런 문제가 없다고 믿어버리기 쉽다”고 말했다.

이들 새로운 툴을 이용해 AWS는 인간 오류의 확률을 줄이고 데이터 누출의 개연성을 낮추려고 한다. 그러나 이들이 도움이 될까? ‘AWS 뉴욕 서밋 2018’ 중의 젤코바 및 타이로스에 관한 프리젠테이션에서 브리지워터 어소시에이츠의 보안 아키텍트인 그레그 프래스카도어는 “여기서 우리의 보안 목표는 AWS로부터 데이터가 외부로 유출되는 것을 막는 것”이라면서 “우리가 얻고자 하는 것은 우리가 배치한 보안 컨트롤들이 우리가 예상한 대로 작용하는지 검증하는 정형적 분석과 체계적인 방법론이다”고 이야기했다.

프래스카도어는 이들 툴의 사용 사례는 개별 보안 컨트롤을 검증하고, 보안 컨트롤에 관련된 벤치마크를 생성하고, 일단의 계정에 걸쳐 적절한 컨트롤을 배치하고, 검증을 자동화하고, 설계 단계에서 검증을 이행하는 것 등이 있다고 말했다. 그는 “이들 툴에서 매우 중요한 사실 하나는 설계 단계에서 검증할 수 있다는 것이다. 우리가 정말 하고 싶어 하는 것 중 하나는 실제 AWS 인프라를 변경하기 전에 보안을 검증하는 것이다. 그렇게 되면 취약점을 미리 거를 수 있다”고 말했다.

이들 신종 툴이 장점뿐 아니라 잠재적 단점 또한 있다고 경고하는 사람들도 있다. 수모 로직의 거초우는 “이들은 좋은 취지이지만, 가격이 비싸고, 정확히 구성되어야 한다. 복잡성이 늘어날 수 있고, 멀티-클라우드 또는 하이브리드 전개 시에는 효용이 없다”고 말했다.

BTB시큐리티의 최고 정보보안 고문인 매트 윌슨은 “젤코바와 타이로스는 잠재적 장점이 무수히 많다. 그러나 데이터를 조작할 줄 알아야 한다. 그렇지 않다면 별로 쓸모가 없다. 게다가 조직 내에 이를 실행하고, 출력을 분석하고, 제공된 정보에 따라 조처를 할 누군가가 있어야 한다. 고급 알고리즘과 세련된 인터페이스는 훌륭하다. 그러나 그것만으로는 충분하지 않다”고 설명했다.


원문보기

Aug 22, 2018

"마이크로서비스는 답이 아니었다"··· 세그먼트가 모놀리틱으로 돌아온 이유

Tamlin Magee | Computerworld UK

다른 많은 기업과 마찬가지로, 데이터 스타트업 세그먼트(Segment) 역시 오래된 인프라스트럭처로 인한 문제 때문에 마이크로서비스(microservice)로 눈을 돌렸다. 하지만 곧 단일 구조(monolithic) 아키텍처로 돌아오지 않으면 해결할 수 없는 복잡한 문제가 있다는 것을 깨달았다.

세그먼트의 주 고객은 타임(Time), IBM, 리바이스(Levi’s) 등이다. 이들 기업의 모든 고객 데이터를 세일즈, 애널리틱스, 헬프데스크 등에 피딩하기 전에 한 지점에 모아 볼 수 있는 서비스를 제공한다.

세그먼트의 CTO이자 공동창립자인 캘빈 프렌치-오웬은 “처음에는 단일 API와 라이브러리를 제공하고 그들이 데이터를 보내오는 식의 개발자 우선 방식을 택했다. 우리가 데이터를 모아 구성한 후 이를 적절한 스키마로 정렬하고, 고객사가 사용하는 200여 가지 이상의 툴에 이 데이터를 보냈다. 여기서 툴이란 세일즈포스 같은 세일즈 툴 일수도 있고, 젠데스크(Zendesk) 같은 고객 관련 툴, 혹은 레드시프트(Redshift)나 빅쿼리(BigQuery)같은 데이터 웨어하우스 일수도 있다”라고 말했다.

세그먼트사는 전적으로 AWS에 의존하고 있으며, ECS(Elastic Container Service)가 관리하는 1만 6000개 컨테이너가 250여 가지 마이크로서비스를 제공한다.

세그먼트는 원래 단일 구조 아키텍처를 사용했다. API가 데이터를 처리해 싱글 큐(queue)에 포워딩하면 직원이 데이터를 읽고 이벤트를 모든 서버측 ‘목적지’, 그러니까 파트너 API에 선형 체인을 통해 전송했다. 그러나 이런 방식은 이내 문제를 발생시켰다. 툴에서 서버 에러를 반송할 때의 재시도가 큐와 만나 다른 이벤트와 뒤섞이는 것이다. 이로 인해 파이프가 막히고 성능 장애로 이어졌다.

세그먼트의 소프트웨어 엔지니어 알렉스 누난은 “단일 구조에서 탈피해 마이크로서비스로 전환한 것도 이 때문이었다. 우리에게는 데이터를 수집하는 API와 라우터가 있고, 라우터는 이벤트를 목적지별 큐와 서비스로 라우팅했다. 이벤트가 발생하면 라우터가 ‘좋아, 이 이벤트는 구글 애널리틱스와 맥스 패널로 보내야겠어’라고 판단을 내리고 해당 이벤트의 카피를 2개 생성해 각각의 큐로 이를 보내는 식이었다”라고 말했다.

바람 잘 날 없었던 “마이크로서비스”의 세계
마이크로서비스 방식은 한동안 잘 돌아 가는 것처럼 보였다. 그러나 역시 문제가 발생했다. 누난의 표현을 빌리면 '마이크로서비스 세계의 더 깊숙한 곳에서 개별 파트너의 API 목적지와 서비스에 대한 새로운 타입의 큐가 형성됨'에 따라 발생했다. 결국 개발자는 모든 업데이트를 수동으로 처리해야 했고 어떤 업데이트 버전이 어디의 어느 리포(repo)에 있는지를 일일이 기억하는 것이 한계에 다다랐다.

누난은 “시간이 갈수록 개발자의 생산성이 급격히 저하됐다. 모든 것이 각기 다른 별개의 큐와 별개의 서비스, 그리고 자체적인 리포에 있었기 때문이다. 우리는 통합을 유지, 생성하기 위해 공유 라이브러리를 만들었지만 이것을 전개할 좋은 방법도, 또 제대로 테스팅할 여건도 안됐다. 공유 라이브러리를 업데이트하기에는 시간도 자원도 부족했다. 결국 구글 애널리틱스 버전만 업데이트하는 식이 됐다. 모든 라이브러리가 서로 다른 업데이트 버전을 갖게 됐다"라고 말했다.

세그먼트 팀은 파트너 API가 각각 어느 라이브러리 버전에서 구동되는지 추적하고, 그 버전 간의 차이도 기억해야 했다. 누난은 “라이브러리 관리 업무 만으로도 개발자에게 너무 큰 부담이 됐다. 꾹 참고 서비스마다 하나하나 변경할 수도 있지만 그러려면 수 일이 걸렸고, 특히 서비스 하나 하나를 테스트하고 전개하는데 여러 명의 개발자가 필요하게 됐다. 이것이 너무 큰 부담으로 작용한 끝에 결국 꼭 필요한 변경사항조차도 적용하지 않게 되는 일까지 발생했다. 모든 서비스에 아주 작은 변경사항만 적용하기 위해서도 팀 전체가 달려 들어 일주일 이상 소모해야만 했다”라고 말했다.

세그먼트의 직원은 이러한 큐를 처리하기 위해 수면 부족에 시달리는 것도 모자라, 성능 이슈에도 직면했다. 예를 들어 구글 애널리틱스와 같은 대규모 목적지의 경우 초당 수천 건에 달하는 이벤트를 처리하는 반면 하루에 수 건 이내의 이벤트만을 처리하는 곳도 있었다. 세그먼트 팀은 오토-스케일링 룰을 적용해 이러한 서비스의 수동 커스터마이징을 최소화 했지만 서비스마다 고유의 CPU 및 메모리 로드 패턴이 있었기 때문에 모든 통합에 같은 룰을 적용할 수는 없었다.

누난은 “하루에도 수십 번씩 쉴 새 없이 호출이 왔고, 직원이 일일이 개입해 이러한 서비스를 처리해야 했다. 이런 식으로 2년 넘게 마이크로서비스 방식을 이용한 결과 큐와 리포에 140여 가지 서비스를 갖게 됐지만 시스템 장애를 막는 데에만 모든 에너지를 쏟아도 역부족이었기에 그보다 더 건설적이거나 선제적인 어떤 노력도 할 수 없는 상황이었다. 이쯤 되자 한걸음 물러나 생각해 보지 않을 수 없었다. ‘대체 이 상황을 해결하려면 어떻게 해야 하지?’ 결국 인력을 추가해야 한다는 결론이 나왔지만, 그런 식으로 문제를 해결하고 싶지는 않았다”라고 말했다.

그러나 결국 세그먼트는 마이크로서비스 아키텍처가 지속 불가능하다는 결론에 다다랐다. 목적지를 추가할수록 성능 저하가 눈에 띄게 증가했고 이것은 ‘상당히 뚜렷한 경고 신호’였다. 누난은 “한창 마이크로서비스로 인한 광기가 극에 달했을 때 내가 세그먼트에 합류했다. 당시 이미 어떻게 하면 이 문제를 해결할 것인가에 대한 논의가 이루어지고 있었다”라고 말했다.
단일 구조로 돌아가다
세그먼트 팀은 마이크로서비스를 어떻게 다시 하나의 거대한 시스템으로 재설계할 것인지 방법을 찾아야 했다. 이른바 ‘신(新) 단일구조’로의 이행이었다. 결국 당시 세그먼트가 진행 중이던 ‘센트리퓨즈(Centrifuge)’ 인프라스트럭처 프로젝트를 통해 새로운 단일 구조로 이행하기로 결정됐다. 센트리퓨즈는 세그먼트 비즈니스의 핵심이라 할 수 있는 단일 이벤트 딜리버리 시스템이다.

프렌치-오웬은 “센트리퓨즈는 큐를 생성하고 실패가 발생했을 때 트래픽을 흡수하기 위한 시스템이다. 이 시스템 덕분에 우리는 여러 코드를 한 장소에 통합하고, 이를 통해 두 마리 토끼를 잡는 전략을 취하기로 했다"라고 말했다.

이를 위해 먼저 모든 목적지 코드를 하나의 리포로 통합했다. 하나의 리포에 모든 종속 항목과 테스트를 합병하는 것이었다. 서비스가 하나뿐이므로 논리적으로 당연했다. 그러나 이 과정이 대단히 복잡하고 머리 아픈 과정이었다. 누난은 "120개가 넘는 고유의 종속 항목들 각각에 대해 우리는 모든 목적지에 대한 하나의 버전을 만드는 데 집중했다. 또한 목적지를 이동하면서 사용 중인 종속 항목을 확인하고 이들을 최신 버전으로 업데이트했다. 또 목적지의 새로운 버전에서 생긴 부분을 바로 바로 수정했다"라고 말했다.

이렇게 일관성을 확보한 결과 코드베이스를 어지럽히던 혼란이 상당 부분 해소되었다. 세그먼트 팀은 또한 빠르고 쉽게 모든 목적지 테스트를 한 번에 진행할 수 있는 테스트 스위트는 개발했다. 지나치게 길고 복잡한 테스트 과정 역시 업데이트를 방해하던 주요 요소 중 하나였기 때문이다.

이처럼 목적지 코드를 단일 리포로 이동시켜 단일 서비스로 통합하자 곧바로 개발자 생산성 증대라는 성과로 이어졌다. 서비스 전개 시간도 수 분 이내로 단축됐다. 누난은 “인프라스트럭처의 가장 큰 부분을 재설계해야 했기 때문에 단일 구조로의 전환에는 상당한 시간이 걸렸다. 당연한 일이었다. 하지만 적어도 예전처럼 계속해서 고객 지원 요청이 들어오거나 하는 일은 없다. 모두가 수면 부족에 시달리지 않을 수 있게 됐다. 모든 것을 하나의 리포로 통합하고 나니 관리도 쉬워졌다”라고 말했다.

이어 "이제 공유 라이브러리에 업데이트를 생성하고 싶을 때, 엔지니어 1명이 한 시간만 투자해 테스트하고 전개할 수 있다. 우리에게는 정말 획기적인 변화였다. 처음 마이크로서비스를 채택했을 때 당시 그런 선택을 할 만한 사정이 있었다고 생각한다. 당시 팀이 처한 상황이나 겪고 있던 성능 이슈를 고려하면 최고의 선택이었다. 그러나 시간이 지날수록 마이크로서비스의 장점은 사라지고 생산성과 성능만 잡아먹게 됐다. 그래서 다시 단일 구조로 돌아온 것이다"라고 말했다.

세그먼트 사가 다른 기업에 비해 처리하는 데이터 양에서 압도적으로 많긴 하지만 비슷한 불편을 겪는 다른 기업 역시 단일 구조로 돌아오는 것이 하나의 대안이 될 수 있다. 누난도 "그런 선택을 한다고 해도 전혀 놀라운 일이 아니다"라고 말했다.

단일 구조로 돌아온 후 나아진 건 세그먼트 사 직원의 워크-라이프 밸런스 뿐 만이 아니다. 고객 역시 훨씬 일관되고 안정적인 서비스를 누릴 수 있게 됐다. 프렌치-오웬은 “모든 서비스가 한 장소에, 단일 리포에 통합됨에 따라 추가된 변경 사항이 다음 번에도 모든 서비스에 똑같이 전개될 것이라는 확신을 가질 수 있게 됐다. 덕분에 고객 역시 서비스 별로 각기 다른 버전으로 인해 발생하는 혼란이나 비일관성을 더 이상 겪지 않아도 됐다"라고 말했다. ciokr@idg.co.kr

원문보기

지금 클라우드에 쓰는 비용, 과연 합리적일까?

Scott Carey | Computerworld UK, 2018.8.21.

클라우드 컴퓨팅 혁명 초기, 사용한 만큼 돈을 낸다는 개념이 등장해 좀더 효율적인 IT소비 시대가 열리는가 기대했던 적이 있었다. 물론 실제로 IT지출 효율화에 성공한 사례도 있었고, 덕분에 매우 빠른 속도로 성장한 웹 기반 기업도 있었다. 그러나 여러 공급업체로부터 받는 서비스가 증가하며 전체 클라우드 지출 현황을 파악하지 못하는 이른바 ‘클라우드 블로트(cloud bloat)’ 위험이 있는 것도 사실이다.

퍼블릭 클라우드로 이전한다고 해서 반드시 지출이 증가한다거나, 혹은 엄청나게 비용이 절감된다는 보장은 없지만, 클라우드 서비스를 확보하고 이에 대한 비용을 지불하는 방식을 획기적으로 바꿀 것만은 분명하다. 그리고 궁극적으로는 기존의 장기 라이선싱 모델보다 비용 예측을 어렵게 만들 것이다.

예컨대, 음악 스트리밍 기업 스포티파이(Spotify)는 최근 온-프레미스 데이터센터에서 구글 클라우드 플랫폼(Google Cloud Platform, GCP)으로의 완전한 이전을 완료했다.

2018년 7월 열린 구글 클라우드 넥스트 컨퍼런스에서 이러한 이전이 비용에 어떤 영향을 미칠 것으로 보느냐는 질문에 엔지니어링 디렉터 하몬 반 알테렌은 “(비용은) 중앙 집중화된 구매에서 분산된 구매로 전환하며 주의 깊게 봐야 할 요소 중 하나다. 구매를 분산하면 누구나 지출할 수 있게 된다. 때문에, 비용에 미치는 영향은 여러 가지 요인에 따라 달라질 수 있다. 특히 최근 들어 기업 규모가 성장하고 있기 때문에, 구체적인 숫자로 답할 수 없음을 양해해 달라”고 말했다.

라이트스케일 2018 클라우드 현황 보고서(RightScale 2018 State of the Cloud report)에 따르면, 전체 기업의 81%가 멀티 클라우드 전략을 채택하고 있으며, 응답자들은 연지출의 약 30%가량이 낭비되는 것으로 파악하고 있었다. 라이트스케일 역시 낭비되는 지출이 전체의 35%에 달한다고 지적했다.

그 결과, 2018년 설문조사 응답자들은 클라우드 비용 최적화를 최우선 전략으로 꼽았다. 응답자의 58%는 이를 클라우드와 관련한 최우선순위라고 답하기도 했다. 그에 비해 사용하지 않는 워크로드를 셧다운하거나 저비용 클라우드 또는 지역을 선택하는 등, 클라우드 비용을 최적화하기 위한 자동화 정책을 실행 중인 기업은 전체 응답자 중 낮은 비중에 그쳤다.

이러한 패러다임의 전환은 전통적인 IT업체들에도 직접적인 영향을 미쳤다. 전통적인 IT업체들은 핵심 라이선스 고객들을 만족시키면서도 새로운 패러다임에 적응하고 살아남기 위해 가격 정책 설정에 고심하고 있다.

독일의 전통적인 IT업체 SAP는 지난 수년간 공공연히 이 문제를 다뤘으며, 2017년 5월에는 현대화된 가격 정책을 새롭게 내놓기도 했다.

SAP 기업개발 담당자 헤일라 자인은 당시 “디지털이 우위를 점한 애자일 세계에서 라이선싱이 유발하는 복잡성은 혁신의 길을 가로막는 요소가 된다… 우리의 목표는 좀더 예측 가능하며, 가치 단위에 연결되어 있고, 투명하며, 또한 일관된 가격 정책을 만드는 것이다”고 말했다.

이어서 “그렇다고 디바이스와 IoT, 그리고 협력 네트워크 시대에 모든 간접 접근 시나리오를 다 다룰 수 있을까? 아직은 아니다. 아직 해야 할 일이 많다. 우리는 고객에게 보다 큰 가치를 선사하기 위하여 가격 책정 시나리오를 계속해서 업데이트 해 나갈 준비가 되어있다. 하지만 적어도 가격 책정 현대화를 위해 올바른 방향으로 한 걸음을 내디뎠다고 평가하고 싶다”고 덧붙였다.

그렇다면 클라우드에 비용을 과다 지출하지 않으려면 어떻게 해야 할까?

충분히 준비하고 접근

클라우드 과다 지출을 막기 위해서는 충분히 준비하고 나서 새로운 서비스를 조달해야 한다.

클라우드 업체 뉴타닉스(Nutanix)는 자사 매거진 넥스트(Next)를 통해 아래와 같이 조언했다. “클라우드 업체를 선택하기에 앞서 해당 업체의 가격 정책 모델을 완전히 이해해야 한다. 이러저러한 API 요청이나 기타 트랜잭션 요금 등 ‘숨은’ 비용을 알고 있어야 타 업체들과 정확히 서비스를 비교하고 우리 기업의 활용사례에 가장 적합한 업체를 선택할 수 있게 된다.”

“클라우드를 사용하면서, 가장 많은 월 지출을 발생시키는 서비스가 무엇인지 파악하라. 이러한 비용을 정당화할 수 있는 사례가 있는지, 비용을 최적화할 수 있는 방법은 없는지 찾아보자. 특정 서비스를 지나치게 많이 사용하는 것은 어쩌면 애플리케이션에 코딩에러가 있기 때문일 수도 있다.

“또 클라우드 서비스를 신청하는 것은 온라인에서 마우스 클릭 몇 번으로 이뤄지는 일이라, 신청해 놓고 잊어버리고 사용하지도 않는 서비스들도 있을 수 있다. 이들 서비스로 인해 한 달에 수천 달러의 비용이 낭비되기도 한다. 이런 비사용 서비스들을 색출해 내는 것만으로도 단기간에 비용을 확 줄일 수 있다.”

뉴타닉스 역시 클라우드 비용 절감에 대해 다음과 같이 조언했다. “워크로드는 그것과 관계가 있고 책임이 있는 부서나 기능별로 배치해야 한다. 이는 서비스 요금 상환을 가능하게 할 뿐 아니라 보다 정확한 예측을 돕는다. 예산은 비즈니스 현황에 맞춰 짜이는 것이 보통이며, 아마도 해당 서비스를 사용하거나 필요로 하는 팀의 요청을 반영하고 있을 것이다. 따라서 해당 서비스를 사용하는 팀이 그러한 리소스를 최적화하고 예산 범위 내에서 관리하도록 해야 한다.”

앱티오(Apptio)의 EMEA SVP 콜린 로울랜드는 “새로 IaaS를 도입하고 퍼블릭 클라우드로 이전하기 전에 클라우드 이전에 드는 전체 비용을 꼼꼼히, 그리고 찬찬히 분석해 보아야 한다. 이전 시 기대되는 비용 절감 효과는 어느 정도고, 이전 자체에 들어가는 비용은 어느 정도인가를 따져 볼 필요가 있다”고 당부했다.
클라우드 지출 줄이기, 정확한 비용 파악에서 시작
클라우드 관리의 효율성은 결국 효율적인 현황 모니터링의 문제로 귀결된다. 무엇에 얼마를 지출하고 있는지를 모르면서 지출을 효율적으로 관리할 수는 없기 때문이다.

터보노믹(Turbonomic)의 클라우드 CTO 모르 코헨은 “인스턴스, 로드 밸런싱, SQL, 그리고 NoSQL 서비스 등, 클라우드에서 소비하고 있는 모든 서비스들을 꼼꼼히 살펴 보라. 각 서비스를 이용함으로써 발생하는 이점과 비용을 대조해 볼 필요가 있다”고 조언했다.

코헨은 “클라우드 사용 패턴이 예측 가능하며, 애플리케이션 수요가 일관된 조직에서는 이런 것들을 쉽게 계산해 볼 수 있다. 이러한 계산을 끝내고 클라우드 공급자들을 비교하여 선택하면 된다”고 이야기했다.

원문보기

Aug 17, 2018

마이크로서비스 아키텍처, 복잡성이 문제로다

IT 인프라를 애플리케이션 내 기능에 따라 별도로 쪼개 운영하는 마이크로서비스 아키텍처가 대세로 떠올랐다. 애플리케이션을 보다 빠르게 개발하고 지속적으로 성능을 향상시킬 수 있다는 점에서 각광받고 있다.

​하지만, 마이크로서비스 아키텍처를 적용하는 게 생각처럼 쉽지 않다는 목소리도 높다. 빠르고 유연한 애플리케이션을 제공하는 데만 초점을 맞추면 네트워크 정책과 보안 정책이 복잡해 질 수 있기 때문이다.

이에 어떻게 해야 애플리케이션 배포, 업그레이드 속도는 높이고 SW작동의 복잡성을 줄일 수 있을지가 성공적인 마이크로서비스 아키텍처 도입을 위한 핵심 과제로 떠올랐다.

​■대세로 떠오른 마이크로서비스 아키텍처 잘 쓰려면

​마이크로서비스 아키텍처란 애플리케이션 구성요소를 특정 목적별로 쪼갠 뒤 독립적으로 작동하도록 극소형 서비스로 만들고, 여러 극소 서비스들을 조합해 완성된 애플리케이션으로 조립하는 개발 형태를 말한다.

​과거의 서비스지향아키텍처(SOA)보다 추상화 수준을 한차원 더 세분화한 것으로 볼 수 있다.

​마이크로서비스 아키텍처 환경에서 개발조직은 각 서비스들을 전담해 지속적 통합과 지속적 개발(CI/CD)을 하게 된다. 솔루션과 IT서비스 개발속도를 높이고, 유지보수에 투입되는 공수를 줄일 수 있어 인기를 모으고 있다.
마이크로서비스 아키텍처는 레고 블록을 조립하듯 여러 서비스를 조합해 하나의 애플리케이션으로 구현

지난 2016년 9월 애플리케이션 개발 플랫폼 업체 라이트벤드가 자바가상머신(JVM) 개발자와 IT 전문가 2천151명을 대상으로 실시한 설문조사에서 응답자 30% 이상이 마이크로서비스를 현업 시스템에서 운영중이라고 답했다. 응답자 20%는 마이크로서비스 현업 시스템 적용을 심각하게 고려중이라고 답변했다. 이미 현업에서 마이크로서비스 아키텍처가 대세로 부상했음을 보여준다.

하지만 운영 환경이 늘어나면서 시스템 운영환경의 복잡성도 커지는 문제가 발생한다. 마이크로서비스 아키텍처의 최대 강점인 개발 생산성을 극대화하는 데 발목을 잡는 일이 생긴다.

이런 문제를 어떻게 해결해야 할까. 애플리케이션 플랫폼 관리 및 보안 솔루션 업체 F5네트웍스는 개발팀 요구에 맞춰 수정할 수 있는 사전 개발된 템플릿을 만들어 대응할 것을 제안한다.

이렇게 하면 사용자가 각 애플리케이션 팀에 어떤 서비스를 제공할 것인지, 어느 정도 수준의 개별 통제력을 부여할 것인지 결정할 수 있다. 또, 운영 환경의 애플리케이션 성능에 대한 가시성과 셀프 확장 옵션도 제공 가능하기 때문에, 애플리케이션 책임자와 네트워크 운영 팀 간 충돌을 없애고 각 기업이 원하는 속도와 규모로 강력한 보안, 성능 및 가용성 서비스의 이점을 더 많은 애플리케이션으로 확장해 준다는 설명이다.

Jul 27, 2018

AWS도 ‘프라이빗 클라우드’ 전략 시동?

2018.07.20 10:05:20 / 백지영 jyp@ddaily.co.kr

아마존웹서비스(AWS)가 최근 '스노우볼 엣지(Snowball Edge)'에서 구동 가능한 EC2 인스턴스를 출시해 관련 업계의 이목이 집중되고 있다.


스노우볼 엣지는 기존 온프레미스 데이터센터 혹은 시스템에서 아마존 클라우드 환경으로 이전이 용이하도록 만든 로컬 스토리지 어플라이언스다. AWS 람다와 그린그래스 기능이 탑재돼 있어 데이터 수집 및 처리에 적합하며 최대 100테라바이트(TB)까지 지원한다.

AWS가 스노우볼 엣지에서 구동할 수 있는 컴퓨팅 서비스 EC2 인스턴스를 출시하면서 프라이빗 클라우드로의 전략 확대에 관심이 쏠리고 있다. 그동안 AWS는 퍼블릭 클라우드 서비스 시장의 최강자로 자리매김했지만, 업계에서 강조하는 하이브리드 클라우드 시장에선 소극적인 모습을 보였다.

물론 그동안 VM웨어 등과 업체와 하이브리드 클라우드 서비스 형태인 ‘VM웨어 클라우드 온 AWS(VMware Cloud on AWS)와 같은 서비스도 출시했지만 아직 초기 단계다. AWS가 스노우볼 엣지와 같은 어플라이언스를 기반으로 본격적인 프라이빗 클라이빗 및 하이브리드 클라우드 대응에 나설지가 관전 포인트다.

AWS에 따르면 각각의 스노우볼 엣지는 1.8 GHz의 인텔 제온 D CPU에 탑재돼 총 24개의 가상CPU(vCPU)와 32 GiB 램을 돌릴 수 있다.

이번에 출시된 새로운 스노우볼 엣지(sbe) 인스턴스는 총 6개다 1vCPU와 1GiB 메모리를 제공하는 sb21.small부터 16개 vCPU와 32 GiB 메모리를 제공하는 sbe1.4xlarge까지 다양하다.

AWS가 그동안 큰 주목을 받지 못했던 스노우볼 엣지의 EC2 전용 인스턴스를 출시하면서 예상되는 시나리오는 우선 전통적인 데이터 처리를 스노우볼 엣지에서 하고 이를 AWS이나 타사 클라우드로 이전시키는 역할이다. 비싼 WAN 비용과 네트워크 지연을 줄이고 빅데이터나 IoT 등을 위한 데이터 전처리를 빠르게 해주는 것이다.

또 다른 시나리오는 흩어져 있는 PC와 서버를 원격으로 관리하는 역할이다. AWS의 제프 바 최고 에반젤리스트는 블로그를 통해 “sbe 인스턴스가 온프레미스의 산업용 PC를 중앙에서 관리하기 원하는 IT관리자들의 요구사항을 충족시킬 수 있을 것으로 기대한다”고 설명한 바 있다.

특히 이번 발표가 최근 AWS의 네트워킹 스위치 판매와도 관련이 있을지 주목된다. AWS가 기존 고객에게 저가형 화이트박스 네트워킹 스위치를 판매한다는 소식이 흘러나오면서 지난주 시스코 등 네트워크 장비업체의 주가가 급락했다. AWS이나 구글과 같은 대형 인터넷 서비스 기업은 서버부터 네트워크 장비, 심지어 자체 반도체칩까지 직접 개발하고 있는 상황인만큼, 이번 스노우볼 엣지를 통해 향후 어떠한 전략을 구사할지 주목된다.

Jul 24, 2018

"캄브리아기 대폭발처럼"··· AI 하드웨어 가속기가 몰려온다

James Kobielus | InfoWorld

인공지능, 머신러닝, 딥러닝의 미래를 뒷받침하는 전용 하드웨어 플랫폼이 부상하고 있다.
관련된 모든 티어, 모든 업무, 클라우드에서 엣지에 이르는 모든 영역에서다.


AI의 급격하게 발전하고 있는 가운데, 머신러닝과 딥러닝에 특화된 새로운 종류의 하드웨어 가속기 분야가 폭발적으로 성장하고 있다.

어떤 사람들은 이 강렬한 혁신을 가리켜 “캄브리아 폭발기”이라 비유한다. 이는 5억 년 전 다세포 동물의 모든 생물학적 "체제"가 처음으로 등장했던 시대를 일컫는다. 그 이후로 인간을 포함한 생명체들이 확산되어 지구상의 모든 생태학적 틈새를 정복, 이용, 변형시키게 되었다.

혁신적인 AI 하드웨어 가속기 아키텍처의 범위도 지속적으로 확대되고 있다. GPU(Graphic Processing Unit)가 지배적인 AI 하드웨어 아키텍처라고 생각할 수도 있지만 사실은 그렇지 않다. 지난 수 년 동안 스타트업 및 기존의 칩 벤더들은 머신러닝, 딥러닝, 자연어 처리, 기타 AI 워크로드에 특화된 인상적이고 새로운 세대의 새 하드웨어 아키텍처를 선보여왔다.

새로운 세대의 GPU 외에 이런 AI 최적화 칩셋 아키텍처에는 NNPU(Neural Network Processing Unit), FPGA(Field Programmable Gate Array), ASIC(Application-Specific Integrated Circuit), 기타 관련 접근방식이 포함되며 이를 뉴로시냅틱(Neurosynaptic) 아키텍처라 부른다.

아스테크니카(Ars Technica)의 기사에서 밝혔듯이 오늘날의 AI시장에는 한 때 데스크톱 컴퓨팅 분야를 장악했던 인텔의 x86 CPU 같은 하드웨어 모노컬처(monoculture)가 없다. 왜냐하면 이들 새로운 AI 가속기 칩 아키텍처는 컴퓨터 비전 등 급성장 중인 클라우드-엣지 생태계에서 각각 대단히 구체적인 역할을 수행하는데 활용되고 있기 때문이다.

AI 가속기 칩의 발전
AI 가속기 칩의 급격한 발전을 이해하려면 다음과 같이 시장 기회와 도전과제에 초점을 맞추는 것이 가장 좋다.

- AI 티어(Tier)
AI 가속기가 어떻게 발전하고 있는지 살펴보기 위해 모바일, 임베디드, 사물 인터넷 장치의 자율성을 높여주기 위해 새로운 하드웨어 플랫폼이 최적화되고 있는 엣지 부문을 살펴보자. 스마트폰 내장 AI 프로세서의 확산 외에도 자율주행 자동차부터 드론, 스마트 기기, 산업용 IoT까지 AI 로봇공학의 혁신이 침투하고 있다.

이와 관련하여 가장 주목할 만한 기술이 엔비디아(Nvidia)의 칩(SOC)상에서 AI 시스템의 젯슨 자비에(Jetson Xavier) AI에 대한 최신 개선사항이다. 엔비디아는 전용 로봇공학 하드웨어에서 구동할 로봇공학 알고리즘을 구축할 수 있도록 Isaac 소프트웨어 개발 키트를 공개했다.

지능형 로봇공학의 복잡성이 반영된 젯슨 자비에 칩은 512코어 엔비디아 볼타 텐서 코어(Volta Tensor Core) GPU, 8코어 카멜(Carmel) Arm64 CPU, 2개의 엔비디아 딥러닝 가속기, 이미지/비전/동영상 프로세스를 포함하여 6개의 처리 장치로 구성된다.

이를 통해 수십 개의 알고리즘을 처리하여 로봇이 자율적으로 환경을 감지하며 효과적으로 대응하고 인간 엔지니어 옆에서 안전하게 작동할 수 있도록 돕는다.

- AI 업무들
AI가속기는 분산형 클라우드-엣지, 고성능 컴퓨팅, 하이퍼컨버지드(Hyperconverged) 서버, 클라우드 저장소 아키텍처의 모든 티어에 침투하기 시작했다. 꾸준한 새로운 하드웨어 혁신이 이 분야에 적용되어 더욱 신속하게 효율적이며 정확한 AI 처리를 지원하고 있다.

AI 하드웨어 혁신은 이미 시장에 출현해 이런 별개의 애플리케이션 환경에의 구체적인 데이터 지향적인 과업을 가속화하고 있다. 시장에 있는 무수히 많은 AI 칩셋 아키텍처는 머신러닝, 딥러닝, 자연어 처리 그리고 저장 집중 훈련부터 컴퓨팅 집중 추론까지 다양한 기타 AI작업 부하에 대응해 다양한 수준의 장치 자율성과 루프(Loop) 내 인간 상호작용을 가속화하고 있다.

AI칩셋을 사용하여 지원하는 광범위한 작업 부하를 위해 벤더들은 자사의 제품 포트폴리오뿐만이 아니라 지능형 로봇 공학과 모바일 앱을 유도하는 SOC 등의 구체적인 임베디드형 AI 배치에 광범위한 기술을 혼합하고 있다.

한 예로, 인텔의 제온 파이(Xeon Phi) CPU 아키텍처가 AI 과업 가속화에 사용되고 있다. 동시에 인텔은 엔비디아 볼타(GPU에 포함) 그리고 NNPU 및 기타 특화된 AI칩을 제조하는 많은 벤더들과 정면으로 경쟁할 수 있는 AI가속기 칩 없이는 경쟁하기 어렵다는 사실을 인지하고 있다. 그래서 현재 인텔의 제품팀이 새 GPU를 개발하고 있으며 2년 후에 출시될 예정이다.

이와 동시에 AI 최적화 칩셋으로 신경망 프로세서(Nervana)), FPGAs(Altera), 컴퓨터 비전 ASICs(Movidius), 자율주행 자동차 ASICs(MobilEye) 등 여러 아키텍처 카테고리에서의 부상하고 있다. 또한 차세대 AI도전과제를 위해 자율 학습 신경구조 및 양자 컴퓨팅 칩을 개발하는 프로젝트도 있다.

- AI 임계치(tolerances)
모든 AI가속기 하드웨어 혁신은 관련된 운영 및 경제적 허용 한계치 내에서 정의된 지표를 달성하는 능력을 갖춰야 한다. 즉 운영 지표에서 모든 AI칩셋은 폼팩터, 에너지 효율, 열 및 전자기 발생, 견고함 측면에서 관련된 제약을 준수해야 한다.

또 경제적인 지표에서는 적용 티어와 과업에 대해 성능과 소유 비용 측면에서 경쟁력이 있어야 한다. 이를 측정한 벤치마크 결과는 AI가속기 기술이 경쟁적인 시장에서 살아남을 수 있는 가격-성능 프로필이 있는지 판단하는데 있어서 핵심 인자가 될 것이다.

워크로드 최적화 AI 아키텍처를 추구하는 업계는 개발, 교육, 운영화, 추론을 포함한 AI업무를 수행하기 위해 가장 빠르고 확장성이 뛰어나며 가장 에너지 효율적이고 가장 저렴한 하드웨어, 소프트웨어, 클라우드 플랫폼을 선택하려 할 것이다.

AI 가속기 ASIC의 다양성
AI 가속기 하드웨어 아키텍처는 모노컬처와는 반대이다. 나무 다양하고 빠르게 발전하기 때문에 이 시장의 무자비한 혁신 속도를 따라잡기가 어렵다.

엔비디아와 인텔 등의 핵심 AI칩셋 제조사들 외에도 플랫폼별 AI작업 부하를 위한 ASIC가 다양하다. 최근의 여러 뉴스 항목에서 이런 트렌드를 확인할 수 있다.

- 마이크로소프트는 홀로렌즈 증강현실 헤드셋을 위한 AI칩을 준비하고 있다.
- 구글은 구글 클라우드 플랫폼의 AI 앱을 위해 제공되는 특수 NNPU인 텐서 처리 장치를 보유하고 있다.
- 아마존은 알렉사 가정용 비서를 위한 AI칩을 개발하고 있다는 보도다.
- 애플은 시리와 페이스ID에 사용할 AI 프로세서를 개발하고 있다.
- 테슬라(Tesla)는 자율주행 전기 자동차를 위한 AI 프로세서를 개발하고 있다.

AI 가속기 벤치마크 프레임워크의 등장
AI 가속기 시장에서의 교차 벤더 협력 관계가 더욱 복잡하게 성장하고 있으며 중첩되고 있다. 예를 들어, 중국에 있는 기술 유력 집단 바이두(Baidu)가 인텔 및 엔비디아와 어떻게 별도로 협력하고 있는지 생각해 보자.

원문보기

Jul 10, 2018

데이터 폭증시대… 클라우드 보완한 '에지 컴퓨팅' 뜬다

기존 클라우드 컴퓨팅은 중앙서버가 모든 정보 처리 데이터 몰리면 시간 지연
'에지'는 네트워크 말단에서 데이터 분산해 실시간 처리 5G·자율주행차 등 핵심 기술
HPE, 4년간 40억弗 투입, MS·델테크놀로지스도 박차


앞으로 4년간 에지 컴퓨팅에 40억달러(약 4조원)를 투자할 계획이다. 에지 컴퓨팅은 기업용 정보기술(IT)의 진화를 촉진할 것이다.”

지난달 18일 미국 라스베이거스에서 열린 휴렛팩커드엔터프라이즈(HPE)의 기술 발표 행사 ‘HPE 디스커버 2018’에서 안토니오 네리 HPE 최고경영자(CEO)는 이 같은 사업계획을 발표했다. 2015년 이후 지속적으로 연구개발(R&D)비를 줄여온 HPE가 3년 만에 대규모 투자를 결정했는데 그 분야가 에지 컴퓨팅이다.

마이크로소프트(MS)도 지난 4월 에지 컴퓨팅과 사물인터넷(IoT) 분야에 50억달러를 투자하겠다고 발표했다. ‘PC업계의 전설’ 마이클 델 회장이 이끄는 델테크놀로지스 역시 지난해 10월 에지 컴퓨팅에 10억달러를 투자하겠다고 밝혔다. 에지 컴퓨팅 기술이 뭐길래 세계 IT 기업들이 앞다퉈 투자에 나선 것일까.

◆중앙처리가 아닌 분산처리

영어 단어 에지(edge)는 ‘가장자리’라는 뜻이다. 에지 컴퓨팅은 네트워크의 중앙이 아니라 가장자리에서 데이터를 처리한다는 의미다. 중앙 집중 처리 방식인 ‘클라우드 컴퓨팅’의 반대 개념이다. 

클라우드 컴퓨팅은 일상 속으로 깊숙이 파고들었다. 사진을 클라우드 저장공간에 올리는 것부터 유튜브 영상을 온라인으로 편집하는 일, 웹브라우저로 프레젠테이션 자료를 만드는 일 등이 모두 클라우드 컴퓨팅에 포함된다.

클라우드 컴퓨팅은 쉽게 말해 고성능 컴퓨터가 업무를 대신 처리하는 기술이다. 사용자는 데이터 저장·처리, 콘텐츠 사용 등을 네트워크 중앙에 있는 서버에 맡길 수 있다. 컴퓨터 시스템 구축 및 유지·보수 비용을 아낄 수 있어 기업들 사이에서 인기가 높다. 최근에는 머신러닝, 빅데이터 처리 등 고성능 시스템이 필요한 업무를 클라우드 컴퓨팅이 대체하고 있다. 아마존의 아마존웹서비스(AWS), MS의 애저가 대표적인 클라우드 컴퓨팅 서비스다.

그러나 IoT 기기가 본격 보급되면서 클라우드 컴퓨팅은 한계에 부딪혔다. IoT 기기가 제공하는 데이터가 폭증하면서 중앙 컴퓨터가 이를 모두 처리하기 버거워졌다. 데이터를 처리하는 데 걸리는 시간도 문제점으로 떠올랐다.

에지 컴퓨팅은 이런 한계를 분산처리 기술로 보완한다. 각 IoT 기기에서 분석할 수 있는 데이터는 현장에서 바로 처리한다는 개념이다. 자율주행, 스마트팩토리, 가상현실(VR) 등 즉시 대처가 필요한 기술이 떠오르면서 에지 컴퓨팅은 4차 산업혁명의 필수 기술로 주목받고 있다.

◆5G·인공지능 발전 따라 부각

에지 컴퓨팅은 인공지능(AI) 기술 발전으로 부각됐다. AI를 오프라인에서 구현할 수 있게 되면서 IoT 기기를 통해 자체적인 데이터 처리가 가능해진 것이다. 구글이 지난해 10월 공개한 AI 카메라 ‘클립스’가 그렇다. 인텔의 AI 전용칩 모비디우스를 탑재해 사람 얼굴을 학습하거나 특정 순간을 자동으로 포착하는 기기다. 아마존이 지난해 11월 발표한 AI 카메라 ‘딥렌즈’도 같은 개념의 기기다.

5세대 이동통신(5G) 서비스 도입도 에지 컴퓨팅이 뜨는 배경 중 하나다. 내년 상반기 한국을 시작으로 5G 서비스가 상용화되면 초고속·초저지연 데이터 전송이 가능해져 IoT 기기의 통신 능력이 향상된다. 통신사들은 사용자 가까운 곳에 모바일 에지 컴퓨팅(MEC) 환경을 구축해 데이터 지연시간을 줄이면서 망의 혼잡도를 낮추는 것을 목표로 삼고 있다. 에지 컴퓨팅이 5G 서비스의 핵심 기술인 셈이다.

글로벌 시장조사기관들은 에지 컴퓨팅을 IT 기업의 새 먹거리로 주목한다. 가트너는 ‘2018년 10대 전략기술’ 리스트에 에지 컴퓨팅 기술을 올렸다. 트렌드포스는 에지 컴퓨팅 시장이 2022년까지 연평균 30% 이상 성장할 것으로 내다봤다.

정보통신기술진흥센터(IITP)는 지난 4월 발간한 보고서를 통해 “한국 기업도 컴퓨팅 시장의 새로운 트렌드를 인지하고 적합한 인프라 투자와 기술 개발을 강화할 필요가 있다”고 권고했다.

■에지 컴퓨팅
분산돼 있는 소형 서버가 데이터를 실시간 처리하는 기술이다. 네트워크 가장자리(에지)에서 먼저 데이터를 처리한다는 의미를 담고 있다. 중앙 서버가 모든 데이터를 처리하는 클라우드 컴퓨팅(cloud computing)과 대비된다. 실시간 대응이 필요한 자율주행, 스마트팩토리 등의 핵심 기술로 꼽힌다.

배태웅 기자 btu104@hankyung.com

May 25, 2018

소금알갱이보다 작은 초소형 컴퓨터의 등장이 과연 가능할까?

IBM thinks its 1mm² computer could lead to smart everything

소금 알갱이 크기의 칩셋이 만들어질 수 있다면 거의 모든 종류의 디바이스에 접목이 될 수 있을 것이며, 이러한 크기의 칩셋을 통해 인공지능 프로그램을 지원할 수 있게 될 날이 도래할 수 있을 것으로 예상되어 초소형 칩셋 개발동향을 살펴보고자 한다.
최근 IBM社의 연구진들이 소금 알갱이보다 작은 컴퓨터를 만드는데 성공한 것으로 나타났는데, 해당 컴퓨터의 성능은 90년대에 활용되어오던 x86 기기와 유사한 컴퓨팅 성능을 제공할 수 있는 것으로 나타났다.
물론 최신 스마트폰에 사용되는 칩셋들의 성능과 비교할 수는 없지만 이러한 소형화 기술이 접목된 칩셋의 등장으로 인해 보다 강력한 컴퓨터가 등장할 수 있는 여건을 제공해줄 수 있기 때문에 주목받고 있는 것이라 하겠다. 이는 기존의 전통적인 칩셋들보다 크기도 작을 뿐 아니라 저렴한 가격으로 모든 종류에 활용되기가 어렵다는 업계의 틀을 초소형 칩셋이 깨뜨렸기 때문이라 볼 수 있다.
이에 IBM社는 초소형 마더보드 위에 작은 컴퓨터를 패키지화 시켜 보다 우수한 배송추적이나 프로세스 처리기능을 제공할 수 있음을 강조하였는데, 초소형 연구책임자인 Arvind Krishna씨는 향후 5년 내 소금보다 작은 초소형 컴퓨터가 인간이 사용하는 일상적인 물건이나 장치 속에 내장될 수 있을 것으로 내다보고 있다는 의견을 밝힌 것으로 나타났다.
특히 객체의 신뢰성을 보장하려는 목적으로 사용자에게 도착하기 전 까지 블록체인의 분산원장기술(distributed ledger technology, 무수한 거래정보를 개별 데이터 블록화시켜 이를 체인 형식으로 순차적으로 연결하는 블록체인 기술을 의미)과 함께 사용하여 식품의 안전성 증진이나 제조부품의 신뢰도, 유전자 변형제품이나 명품의 신뢰도 증진 등의 목적으로 활용될 수 있는 새로운 솔루션이 될 수 있을 것으로 예상되고 있다.
수십만 가지 이상의 트랜지스터로 구성될 초소형 컴퓨터는 기본적인 인공지능 프로그램을 기반으로 보다 많은 능력을 발휘할 수 있게 되고 이후 보다 많은 기기에 연결될 수록 뛰어난 성능을 발휘할 수 있게 될 것으로 전문가들은 예상하고 있다.
아직까지 초소형 컴퓨터는 연구소 소준에서의 구현이 주로 이루어질 뿐 실제 시장에서 활발하게 사용되거나 판매되고 있지는 않지만 사물인터넷과 인공지능의 등장으로 인해 보다 많은 디지털 기기들이 연결되고 사용될 수록 이러한 소형화 기술에 대한 수요는 점차 늘어날 것으로 예상해볼 수 있다.

Feb 12, 2018

IBM 기고 | 2018년 주목해야 할 클라우드 전망 두 가지

매해 연말과 연초에는 유수의 리서치 및 연구 기관에서 각종 영역에 대한 새해 전망과 예측을 내놓는다. 2018년도 예외 없이 여러 기관에서 클라우드 시장에 대한 예상 리포트를 내놓았다. 그러나 국내 시장의 특이점이라던가, 각종 산업별 규제 조항 및 기업 문화의 상이함으로 인해 해외 보고서만으로는 부족함이 느껴지는 것도 사실이다.

예를 들어 국내 금융 기관이나 공공 기관의 경우는 퍼블릭 클라우드 도입에 대해서 넘어야할 걸림돌이 너무나 많아, 클라우드 도입 시에 아예 이러한 유형을 배제시키는 경우도 많이 볼 수 있다. 이러한 기관 관점에서는 코로케이션(Co-location) 서비스를 통해 클라우드 서비스 제공자로 업무 시스템을 물리적으로 이관하는 등의 주제가, 흥미를 일으키기 어렵다.

그렇다면, 올해를 예측한 각 기관의 리포트 중, 국내 환경을 고려했을 때에도 참고할 만한 예측은 무엇일까? 여러 가지 기술과 전략이 언급되었으나, 필자는 이들 중 서로 연관성이 있는 2가지 예측에 주목하고자 한다.

프라이빗 클라우드의 재 탄생
굳이 재 탄생이라는 용어를 사용하는 이유는 기존 프라이빗 클라우드를 바라보는 시각에서 다소는 벗어날 필요가 있기 때문이다. 현재까지는 프라이빗 클라우드를 둘러싼 논의들이 다분히 IaaS(Infra-as-a-service) 중심의 관점을 가지곤 한다. 이러한 관점에서 프라이빗 클라우드의 구축은 자원의 효율적인 사용 및 자동화를 목표로 하면서 물리 서버 - 가상화 하이퍼바이저 - VM 인프라스트럭처 위에 관리(Management) 및 오케스트레이션 레이어를 구축하는 것으로 귀결된다.

이처럼 인프라 중심의 관점으로 프라이빗 클라우드 도입을 검토하는 이유들이 있다. 기존 IT 운영자 입장에서의 눈 높이에도 맞고, 여러 벤더가 제공하는 어플라이언스 형태의 다양한 오퍼링을 활용 시 비교적 신속하게 구축이 가능하다는 이점이 있을 수 있다. 하지만, 클라우드 활성화나 역량의 내재화보다 노후 시스템 교체나 P2V (Physical to Virtual)와 같은 하드웨어 업그레이드의 의미만 남게 되는 경우도 분명히 발생한다.

포레스터는 2018년 클라우드 시장 예측(Prediction 2018 : Cloud Accelerates Enterprise Transformation Everywhere, 2017)을 통해 프라이빗 클라우드 도입을 결정한 고객들이 기존 대비 더 많은 효익을 기대할 것이며, 이에 따라 2018년의 프라이빗 클라우드는 보다 쉽고 개발자 친화적인 서비스를 제공하는 플랫폼으로 다시 태어날 것으로 전망하고 있다.

이러한 관점은 프라이빗 클라우드를 고려할 때, 기존의 인프라 중심에서 개발자나 LOB 소비자를 감안하여 검토해야 함을 의미한다. 동 리포트에서도 새로운 프라이빗 클라우드 플랫폼은 개발에서 배포에 이르는 전체 개발 주기를 단축할 수 있고, 비용 및 신속성 측면에서 데이터 센터의 효율성을 증대하므로써 클라우드 네이티브 서비스를 지원하고 앱의 현대화를 수행할 수 있어야 할 것으로 제시하고 있다.

결론적으로 재탄생된 프라이빗 클라우드 플랫폼의 지향점은 PaaS(Platform-as-a-service)와 대단히 유사하게 보인다. 이는 IaaS를 구축하고, 수 년 이후 PaaS로 확장하는 류의 클라우드 추진 전략이 가장 효율적인 것인지에 대한 일반적인 의문점과도 맞닿아 있다. 프라이빗 클라우드 상에서 단순하게 컴퓨팅이나 스토리지를 대여하고 댓가를 받는 것( 싱글 테넌트 환경에서는 빌링이 생략되는 경우도 많이 있다)보다 클라우드 인프라 위 워크로드의 개발, 배포, 운영에 집중하는 이러한 관점이 명백하게 더 나은 투자 효과를 기대할 수 있어 보이므로, 향후 프라이빗 클라우드의 도입 전략에 있어서 주요 평가 요소가 될 것으로 보인다.

컨테이너 시대의 도래 및 쿠버네티스(Kubernetes)
앞서 프라이빗 클라우드에 대한 내용에서 언급한 바와 같이, IaaS를 먼저 구축 검토하는 경향이 나타난 데에는 신기술을 도입할 때의 변수를 단순화하고 리스크에 민감한 도입 경향도 하나의 큰 요인이다.

마이그레이션, 의존성, 영향도 등 많은 고려와 검토를 필요로 하는 이러한 작업은, 컨테이너 기술을 통해 규격화된 방식으로 워크로드를 담아냄으로써 훨씬 더 편리하게 수행할 수 있게 되었다. 도커(Docker), rkt 등의 오픈 기반 기술은 이미 수 년 간의 과도기를 거쳐 지속적으로 발전하고 있으며, 블록체인 기반 하이퍼레저, 스파크(Spark) 등의 빅데이터 분석, 딥러닝, IoT 등 다양한 영역에 이미 광범위하게 사용되고 있다. 또한, 애플리케이션의 아키텍처를 마이크로서비스 형태로 현대화 하는 논의에 있어서도 그 구체적 구현 형태는 컨테이너 형태가 될 확률이 높다.

이미 잘 알려진 바와 같이, 컨테이너는 VM 대비 경량이므로 물리 서버에 더 많은 워크로드를 수용할 수 있고 VM과 유사하게 컨테이너가 사용하는 용량을 제어할 수 있다. 하지만, 가장 큰 장점 중의 하나는 뛰어난 이식성으로, 운영 인프라가 데이터 센터 내에 있던, 퍼블릭 클라우드 상에 있던지 간에 동일한 방식으로 app을 배포하여 구동할 수 있다는 것이다. 이는 한 번의 애플리케이션 코드 작성 후, 이 app을, 컨테이너 엔진만 있다면 잠재적으로는 어느 환경에서도 동일하게 수행할 수 있으므로, 워크로드를 클라우드로 올리는 문제에 있어서의 여러 이슈를 해결할 수 있다.

하지만, 이러한 장점과 더불어 컨테이너가 계속적으로 늘어나고, 여러 버전이 사용되고, 컨테이너 운영 노드들이 추가됨에 따라, 분산 컨테이너 관리가 어려워지는 문제가 발생하므로 이를 관리하는 별도의 플랫폼이 요구된다. IBM의 2018 클라우드 전망(5 predictions for 2018, 2017, Cloud Computing News)에서는 컨테이너가 실제 비즈니스 시스템에 활용될 것으로 전망하면서, 이러한 컨테이너 오케스트레이션 플랫폼의 승자로 쿠버네티스를 꼽았다.

포레스터 및 다른 리서치 기관에서도 유사한 분석 결과를 내놓았으며, 더 나아가 쿠버네티스가 컨테이너 오케스트레이션 영역에서 사실 상의 표준으로 등극하리라는 전망도 있었다. 이를 뒷받침하는 근거는 오픈 기술에 있어서 가장 중요한 활성화된 커뮤니티와 에코시스템, 그리고 현재 사용자가 이러한 기술들을 얼마나 실 환경에서 활용하고 있는지 등이다.


[The Container Orchestration Landscape is Changing / 출처: CNFC (Cloud Native Computing Foundation)]

IBM, 마이크로소프트, 구글을 비롯하여 최근 AWS에 이르기까지 오늘날 주요 퍼블릭 클라우드 서비스 제공사들은 모두 쿠버네티스 기반의 컨테이너 서비스를 제공하므로, On/Off 프레미스 상에서 컨테이너를 동일한 방식으로 운영할 수 있다.

이처럼 기존 VM방식 대비 워크로드 운영의 장점이 명확하므로 컨테이너 기술은 지속적으로 확대 보급될 전망이며, 이와 더불어 쿠버네티스 기술을 활용하는 기업도 늘어날 것으로 보인다.

결론은 다음과 같다. 프라이빗 클라우드를 바라보는 시각이 변화한다. 또 컨테이너 도입이 늘어난다. 이에 따라 많은 기업들이 클라우드 전략 수립에 있어 쿠버네티스 기반의, 데브옵스(DevOps) 중심 프라이빗 클라우드를 주요 검토 요소로 고려하게 된다. 이미 각 솔루션 업체들도 이러한 요구를 감안해 IBM 클라우드 프라이빗(IBM Cloud Private) 과 같은 상용 패키지 형태 오퍼링을 하나의 축으로, 매니지드 서비스, 포탈 서비스 등 다양한 오퍼링을 준비 혹은 출시하고 있다.

오픈 기술을 기반으로 벤더 종속성을 없앨 수 있다는 점에서, 기존에는 오픈스택이 IaaS 프라이빗 클라우드를 구축하려는 기업들로부터 많은 관심을 받았다면, 올해부터는 컨테이너와 쿠버네티스가 주목을 받을 것으로 전망한다.

* 임정준 저자는 한국IBM 클라우드 전문위원이다. ciokr@idg.co.kr

Jan 29, 2018

클라우드 스토리지가 블록체인-암호화폐와 만날 때!··· 일석이조?

Lucas Mearian | Computerworld

로베르토 갈로피니는 블록체인이 ‘일석이조’의 기회를 제공한다는 점을 확인했다. 갈로피니가 일하고 있는 파일질라(FileZilla)는 사용자에게 무료 온라인 데이터 스토리지와 함께 암호화폐를 벌 기회를 제공한다.

인기 있는 오픈소스 FTP 클라이언트인 파일리자의 전략 담당 디렉터인 갈로피니는 올해 블록체인을 통해 관리할 스토리지 랩스(Storj Labs)의 P2P 분산형 플랫폼을 사용해 서비스의 방향을 바꿀 계획이라고 설명했다.

몇 달간 스토리지의 분산형 스토리지를 시험한 파일질라는 소스포지닷넷(SourceForge.net)에 호스팅 한 무료 파일 공유 서비스에서 수익을 창출했다. 이 회사는 사용자들에게 새 웹이나 모바일 앱을 테스트하면 돈을 벌 수 있는 서드파티 소프트웨어나 상품을 홍보하고 있다. 파일질라는 이후 서드파티 소프트웨어 업체와 수익을 나눈다.

그러나 일부 사용자가 동의 없이 애드웨어가 설치되었다고 문제를 제기했다. 또한, 광고를 좋아하지 않는 사용자도 있다.

투자자와 사용자를 ‘유혹’하는 암호화폐
파일질라는 스토리지 랩스와 수익을 나눠, 사용자에게 계속 무료 서비스를 제공하고, 더 나아가 VPN 무료 접속 등 블록체인 암호화 기술을 사용한 추가 기능들을 지원할 수 있을 전망이다.

갈로피니는 “사용자들은 오랜 기간 무료로 파일질라를 사용했다. 따라서 무료는 아니지만, 다른 서비스보다 저렴한 새로운 서비스를 찾는 것이 중요하다”고 설명했다.

스토리지는 블록체인을 사용해 디지털 파머(Farmer)를 추적한다. 디지털 파머는 비트코인 채굴자처럼, 애플리케이션이 자신이 보유한 컴퓨터나 서버의 여유 네트워크와 스토리지 용량을 함께 사용할 수 있도록 허락하는 사람들이다. 블록체인의 분산형 전자 장부(레저)를 사용, 파머들에게 암호화폐를 지불한다. 2014년 출시 이후 가치가 240배 뛴 디지털 토큰이다.

지난 해, 파일질라 경영진은 안전한 클라우드 서비스에 기반을 둔 또 다른 스토리지 제공 방법을 찾을 때 토큰 기술이 핵심이었다. 사용자에게 ‘점착력’이 있는 기술이기 때문이다.

갈로피니는 “처음으로 최종 사용자가 간편하면서 저렴하게 이용할 수 있고, 돈도 벌 수 있는 서비스를 찾아 제공할 수 있었다. 승자와 패자가 있는 제로섬 게임 같은 서비스가 아니다. 모두가 승자인 서비스다”고 말했다.

그러면서 “토큰이 ‘게임 체인저’다. 마침내 최종 사용자가 우리를 찾아와 소프트웨어를 다운로드 받은 후, 그냥 가버리는 그런 ‘관계’를 끝낼 수 있게 됐다. 최종 사용자가 생태계의 일부가 되기 때문이다. 스토리지를 사용하기 시작하고, 하드 드라이브 용량과 네트워크를 공유하면 시장 참여자가 된다”고 설명했다.

현재까지 스토리지 랩스의 P2P 네트워크에 가입한 파머는 5만 명 이상, 호스팅 된 데이터는 30 페타바이트에 달한다.

스토리지 랩스는 분산형 객체 기반 스토리지 플랫폼 관리에 블록체인을 사용하고 있는 신생 창업회사 중 하나이며, 지난 6개월 간 매달 50%의 성장률을 달성했다.

확장 문제
지난 해, 블록체인 기반 디지털 스토리지 분야의 또 다른 신생 창업회사인 파일코인(Filecoin)은 ICO(Initial Coin Offering)에 앞서 5,200만 달러, ICO에서 역대 최고인 2억 500만 달러의 자본을 유치했다.

그러나 고속 성장과 함께 많은 블록체인 플랫폼이 직면한 문제 중 하나가 부상했다. 다름 아닌 효율적으로 확장을 하지 못하는 문제다. 이에 스토리지는 지난 주, 수요와 요구에 따라 확장을 할 수 있도록 플랫폼을 재설계하기 전까지 새 사용자나 파머를 받지 않겠다고 발표했다.

스토리지 랩스의 창업자인 존 퀸은 “우리는 관리가 불가능할 정도로 문제가 걷잡을 수 없는 속도로 커지기 전에 새로운 사용자를 받지 않으면서 인프라를 엑사바이트급 용량을 처리할 수 있도록 재설계한다는 결정을 내렸다”고 설명했다.

퀸은 6개월 이내에 서비스 성능을 높여 새 호스트와 사용자에게 문호를 개방하길 바란다.

최근 세계 최대 블록체인 플랫폼 중 하나인 이더리움(Ethereum) 또한 분산형 원장 기술을 스케일(축소 또는 확장)하는 방법을 탐구하고 있다고 발표했다.

체인의 특성 때문에, 블록체인에 집어넣는 새로운 레코드 각각을 일련화(serialized) 시켜야 한다. 따라서 데이터를 병렬로 업데이트할 수 있는 기존 데이터베이스보다 업데이트 속도가 느리다.

AWS와 드롭박스에 도전하는 블록체인 기반 시스템
새로운 블록체인 기반 분산형 스토리지 시스템들이 클라우드 스토리지 시장에서 아마존, 드롭박스 등 기존 클라우드 스토리지 서비스에 도전장을 던질 가능성도 있다.

언스트 앤 영(Ernst & Young)의 블록체인 기술 글로벌 혁신 책임자인 폴 브로디는 “분산형 컴퓨터와 스토리지 모델은 아직 ‘유아기’다. 그러나 이 기술의 시장이 아주 클 것으로 예상하고 있다”고 말했다.

P2P 네트워크로 컴퓨터 리소스를 통합한다는 개념은 새로운 개념이 아니다. 2000년대 초, 비트토렌트(BitTorrent)가 분산형 파일 공유 서비스를 시작했고, 인터넷 파일 공유 대역폭의 절반 이상을 처리할 정도로 성장했다.

브로디에 따르면, 블록체인에는 지금까지의 P2P 서비스에는 없던 암호화폐라는 결제 메커니즘이 포함되어 있기 때문에 성공할 확률이 높다.

브로디는 “또한, 과거보다 네트워크가 커지고 빨라졌으며, 워크로드도 더 효율적으로 분산시킬 수 있다. 따라서 결제와 관련된 부분을 조금 바꿔 워크로드 분산 기술을 발전시키면 된다. 그러면 ‘좋은 개념’을 벗어나 확장성 높은 큰 비즈니스가 된다. 개인적으로 이런 단계에 도달하기를 희망한다”고 말했다.

투자 신뢰도가 ‘신호’라면, 시장은 이미 준비가 된 상태인지도 모른다.

글로벌 P2P 네트워크
시아(Sia) 또한 블록체인으로 관리하는 P2P 네트워크를 사용, 남는 스토리지 용량을 제공하는 호스트에 데이터를 저장하고 있다. 중복성과 신뢰도를 높이기 위해, 각 파일을 50개의 각기 다른 호스트에 복제한다.

시아는 50개 국가에 1,000여 호스트를 운영하고 있다. 출발은 일반 사용자였다. 그러나 지난 주, 콜드 스토리지용으로 기업과 대학, SMB의 CIO와 CTO 등 엔터프라이즈 시장을 공략할 계획이라고 발표했다. 시아에 따르면, 기존 클라우드 서비스보다 10배 더 저렴하고, 안전하고, 신뢰도가 높은 서비스다.

데이빈 보리크는 20세이던 2013년 MIT 해커톤에서 시아 창업을 생각했다. 시아는 저렴한 가격에 스토리지 서비스를 제공할 수 있다. 다른 클라우드 서비스와 달리, 자본 투자와 고정 비용이 요구되는 데이터센터를 사용하지 않기 때문이다.

시아 호스트는 각자 용량 사용에 대한 가격을 정할 수 있다. 그러나 시아의 홍보 책임자에 따르면, 평균적으로 테라바이트 당 월 2달러다. 반면, AWS 등은 아카이브용 데이터 스토리지에 테라바이트 당 월 20달러의 요금을 부과하고 있다. 기업용 상품의 경우, AWS와 구글 클라우드, 마이크로소프트 애저 등은 100TB에 월 2,000달러 이상의 요금을 청구한다. 반면, 시아는 월 200달러에 불과하다.

시아 P2P 네트워크에서 데이터 저장 호스트들은 블록체인을 통해 데이터를 실제 보관하고 있음을 증명해 금전적 보상을 받는다. 그렇지 않은 경우, 금전적 보상을 받지 못한다. 보상액은 공유하는 저장 용량과 네트워크에 따라 달라진다.

보리크는 “현재 블록체인에 가장 유망한 기회를 제공하는 시장 중 하나가 콜드 스토리지 시장이다. 2,000억 달러의 시장이다”라고 말했다.

시아 호스트 중 절반은 일반 가정에서 운영된다. 나머지 절반은 데이터센터의 잉여 용량이다. 호스트마다 네트워크 대역폭이 다르기 때문에 보상액도 다르다. 서비스 사용자는 추가 요금을 내고, 지리적으로 가까운 호스트와 우수한 대역폭을 사용할 수 있다.

보리크는 “현재 파일을 가져올 때, 다운로드 스핀업 시간은 약 1초다. 그리고 다운로드가 시작된 후, 다운로드 속도는 초당 약 60~70 메가비트다. P2P 네트워크에 위치한 개별 노트 업타임이 AWS의 99.999999999% 업타임에는 미치지 못한다. 데이터가 50노트에 분산되어 저장되어 있기 때문이다. 그러나 신뢰도는 아주 높다”고 주장했다.

P2P 네트워크에서 전송되는 데이터는 투피시 암호(Twofish encryption)을 사용해 암호화 한다. 스토리지는 AES 256 비트 암호화를 사용한다.

시아는 네트워크에 다른 블록체인 같은 스케일링 문제는 없다고 주장했다. 데이터 저장에 모든 노드를 사용하는 경우에만 문제가 발생하기 때문이다.

시아는 최대 50개의 호스트에만 데이터를 저장한다. 시아는 ‘아주 큰 공유 데이터센터’가 아닌 ‘작은 P2P 스토리지’를 효율적으로 중개하는 개념이라고 설명했다.

시아와 스토리지 모두 네트워크 전반에 데이터를 저장하기 전, 데이터를 임의로 쪼개는 데 리드 솔로몬(Reed-Solomon)의 코딩 알고리즘을 사용하고 있다. 스토리지는 중복성을 위해, 데이터를 6차례 복제한다.

파일질라의 갈로피니는 스토리지 P2P 네트워크를 시험 사용하면서 기술적인 측면에서는 문제가 없었다고 설명했다. 그러나 올해 바로 잡았으면 하는 성능 문제가 존재한다고 지적했다.

갈로피니는 “이 문제가 해결되기 전까지는 소수 사용자를 대상으로 계속 사용할 계획이다. ‘메인 스트림’ 기술이 될 준비가 되고 있다. 그러나 아직은 여기에 도달하지 못한 상태다. 스토리지 랩스가 이 문제를 해결하기 위해 열심히 노력하고 있다는 점을 알고 있다. 2018년 초에 문제가 해결되어, 완전히 운영할 수 있게 되기를 기대한다”고 말했다.

스토리지 랩스는 ‘호미로 막을 것을 가래로 막는 것’을 피하기 위해 노력하고 있다. 예를 들어, 파머와 사용자에게 확장성 문제가 큰 문제가 되기 전에 이를 해결하는 시도를 하고 있다.

블록체인의 문제점 해결
스토리지 랩스의 수석 아키텍트 겸 CTO인 필립 허친스는 “관련 업종 회사들 중에는 중대한 문제에 직면했을 때, 대대적인 ‘재편성’을 시도하기로 결정하는 경우가 많다. 그러나 우리는 이런 중대한 문제를 해결하는 동안 기존 고객에게는 계속 서비스를 유지하는 것이 현명하다고 생각했다”고 말했다.

스토리지 랩스가 해결하려 시도하는 근본적인 문제 중 하나는 구글 클라우드 서비스에 중앙화 방식으로 호스팅 된, 일명 브릿지로 불리는 API다.

허친스는 “단일 장애 지점(Single Point of Failure)이다. 우리는 나머지 서비스처럼 이를 분산화 시키는 시도를 하고 있다. 이것이 우리가 추구하는 가장 큰 변화다. 그러면 비용을 절감할 수 있고, 네트워크 회원들에게 더 큰 혜택을 제공할 수 있다”고 설명했다.

스토리지는 분산형 API를 구현, 여러 네트워크 브릿지를 사용해 데이터를 P2P 네트워크에 위치시킬 계획이다.

분산형 스토리지 서비스는 또한 샤딩(Sharding)이라는 개념으로도 알려져 있다. 샤딩은 현재 블록체인이 설계된 방식처럼, 모든 노드가 아닌 일부 노드가 트랜젝션을 처리하는 방식이다.

또한, 더 많은 트랜젝션을 병렬로 처리할 수 있다. 이더리움을 만든 비탈리크 부테린에 따르면, 블록체인의 장점인 보안 기능을 약화 시키지도 않는다. 블록체인의 장점인 분산성과 보안 속성 대부분을 유지하기 떄문이다.

파일질라의 갈로피니는 스케일링 문제가 해결된 후 블록체인 기반 분산형 저장 기술의 잠재력을 높이 평가하고, 이를 기대하고 있다.

그는 “이 기술의 이점 중 하나는 새로운 기능으로 최종 사용자를 만족시킬 방법을 찾을 수 있다는 것이다. 동시에 수익도 창출할 수 있다”고 강조했다. editor@itworld.co.kr

Jan 10, 2018

Google社, 인간의 도움없이 복제 가능한 인공지능엔진 개발

미국계 기술대기업인 Google社의 AutoML이라 불리우는 인공지능엔진이 인간의 도움없이 인공지능 솔루션을 만들어낼 수 있는 능력을 지닌 것으로 나타나 관련 기술개발 동향을 살펴보고자 한다.
Google社의 연구팀들이 기기학습 모델을 자동화하기 위해 보강학습기술을 사용한 이후, 인공지능은 인간보다 더 강력한 가상의 어린이를 만들어낼 수 있었다.
2017년 5월 발표된 AutoML은 자가복제와 새로운 인공지능 솔루션을 구축하는 방법을 학습할 수 있는 인공지능 도구로서 어린 인공지능의 경우에는 소위 제어가 가능한 신경망 네트워크로 활동할 수 있는 것으로 나타났다. NASNet이라 불리우는 해당 봇은 실시간 비디오를 통해 제공되는 다양한 물체를 식별할 수 있으며, 신호등이나 핸드백, 사람, 자동차, 신호등과 같은 물체를 식별할 수 있는 것으로 알려지고 있다.
이미 수달 전 AutoML 프로젝트를 통해 자동화된 기기학습모델을 설계하는 방식을 표명한 Google社는 AutoML이 인간이 설계한 신경망 네트워크와 동급의 소규모 신경네트워크를 설계할 수 있다는 사실을 발견하였으며, 완벽하지는 않지만 스스로 기능을 끊임없이 개선할 수 있는 능력을 갖춘 NASNet을 발견할 수 있었다.
이 NASNet이 기존 컴퓨터 시각시스템의 대다수를 능가할 수 있음도 확인이 된 것으로 나타났는데, 이미지 예측결과와 관련해 약 82.7퍼센트의 정확성을 보이는 수치를 나타냈다.
기기학습은 유망한 영역이라 볼 수 있지만, 무수한 기술과 시간이 필요로 하고 있어 이번에 개발된 NASNet을 통해 이미지 기능의 도입이 필요한 다수의 컴퓨터 시각 어플리케이션에서 재사용될 수 있다고 믿고 있으며, 앞으로 상상하지 못해오던 무수히 많은 컴퓨터 시각 문제를 해결하기 위해 이번에 개발된 인공지능 솔루션이 널리 활용될 수 있기를 희망하고 있다.

출처 :  https://www.computing.co.uk/ctg/news/3022352/google-ai-engine-can-replicate-itself-without-human-help

IBM 양자컴퓨팅의 다양한 실제 기업체 접목사례 연구

IT서비스 대기업인 IBM社는 최근 비즈니스와 산업분야 기술사용과 관련한 글로벌 네트워크의 일환으로 약 12개 조직이 IBM Q 상업용 양자컴퓨팅 시스템을 활용할 것이라는 발표를 내놓아 이들이 주장하는 양자컴퓨팅 시장환경에 대해 살펴보고자 한다.
IBM社의 초기 양자컴퓨팅 기술들을 구매하기로 밝혀진 당사자는 금융그룹인 JP모건과 Barclays 뿐 아니라 Daimler AG와 Samsung 등이 포함되어있는 것으로 나타났다. 이들 각 기업들은 각기 다른 용도로 양자컴퓨팅을 사용할 예정인 것으로 예상되는데, 일례로 JP모건은 IBM社와의 협력체계를 통해 금융산업이 직면한 문제해결에 양자컴퓨팅을 활용할 예정인 것으로 알려지고 있으며, 금융기관들의 거래전략, 자산관리 최적화, 가격결정 및 위험분석 등에 적용될 것으로 예상되고 있다.
반면 Daimler AG는 양자컴퓨팅 기술활용을 연구분야에 접목시키려 하고 있으며, 자체 생산하고 있는 배터리 셀을 개발하기 위한 신물질을 개발하는데 도움을 줄 수 있는 방안을 모색하기 위해 양자컴퓨팅을 활용할 것으로 알려지고 있다.
Samsung은 마이크로 전자재료분야에 제조공정 최적화를 비롯한 비즈니스 프로세스 혁신을 위해 양자컴퓨팅을 통합할 것으로 알려지고 있는데, 해당 통합 프로젝트를 위해 IBM社는 학술기관 및 국립연구소에 글로벌 허브네트워크를 구축하기 위한 계획을 수립하였으며, 보다 많은 학생들이 양자컴퓨팅 기술에 익숙해질 수 있는 기회를 마련해나가고 있는 실정이라고 한다.
IBM Research의 인공지능 담당 부사장인 Dario Gil씨는 향후 수 년간이 양자기술 및 사용자 케이스가 급속히 발전할 수 있는 형성기로 보고 있으며, 네트워크 구축을 통해 기업과 조직들이 양자컴퓨팅을 보다 손쉽게 이용할 수 있는 여건을 마련해나가고 있다고 밝혔으며, 미래에 상업적, 지능적, 사회적 이윤창출로 이어질 수 있는 양자컴퓨팅 분야를 발굴해나가는데 초점을 두고 있다고 밝혔다고 한다.
각 기업들이 IBM에서 제공하고 있는 양자컴퓨팅 네트워크에 합류하여 연구진 및 기술진들의 도움과 더불어 양자시스템의 적극적인 산업계 활용을 통해 보다 실질적인 이윤을 추구해낼 수 있을지 그 귀추가 주목되는 시점이다.

출처 :  https://www.computing.co.uk/ctg/news/3023163/ibm-commercialises-its-quantum-computing-technology

인공지능이 세상을 접수할 것인가?

2035년에는 인공지능으로 무장한 휴머노이드 로봇이 일상생활의 일부가 된다. 델 스푸너 형사는 로봇을 싫어하는데 자동차 사고를 수습하러 온 로봇이 통계적으로 생존 확률이 낮다는 이유로 12세 소녀를 죽게 내버려 두고 자신만 구했기 때문이다. 이것은 윌 스미스가 주연한 아이, 로봇의 배경이 되는 작은 이야기이지만 이 영화는 결국 휴머노이드 로봇들이 세상을 접수하려는 음모를 보여준다.
이것이 AI의 미래인가? 기계가 사람의 능력을 뛰어넘는 순간이 있을 것인가? 강력하다고 한 것이 아니라 사람의 능력이라고 한 점에 주목하자. 컴퓨터가 인간의 뇌보다 더 빠르고 강력하다는 것에 의문의 여지가 없지만 더 많은 능력을 가질 것인가? 바로 이 점을 사람들이 걱정하는 것이다.
AI가 세상을 접수하는 일은 없을 것이다. 아이 로봇은 과장이 섞인 SF 영화로 봐야 한다. 대신 AI는 강력한 비즈니스 도구로서 기업과 고객들을 위한 서비스 전략을 지원하여 더 나은 고객 경험을 제공할 것이다.
디지털지니어스(DigitalGenius)의 공동설립자인 미카일 노모프(Mikhail Naumov)는 AI와 사람이 협력하는 개념을 주도하고 있다. 노모프는 현재 고객 지원을 위한 AI는 매우 협소한 사안에 초점을 두고 있다고 하면서, 청구서 주소나 신용카드 정보 업데이를 빠르게 해준다는 예를 들었다. 또한 현재 사용 가능한 AI는 고객 서비스 담당자(customer service representative, CSR)를 돕는데 최적이라고 권고했다.
AI 컴퓨터 혹은 기계가 고객과 대화 내용을 실시간을 듣고 있다고 상상해보자. 고객은 질문을 하거나 문제를 상의할 것이다. 이때 AI는 CSR에게 고객의 과거 구매 이력, 이전 상담 내역 등을 보여준다. 동시에 이 고객의 문제를 해결하기 위한 대답을 제시한다. 이런 일은 실시간으로 일어나고 매우 빠르게 이루어진다.
IBM CEO 지니 로메티는 AI를 거꾸로 쓴 IA를 고안해 냈는데, 인공지능을 지능형 도우미(Intelligent Assistant)로 봐야 한다는 것이다. 바로 노모프가 정의한 AI를 말한다. 고객은 어떻게 CSR이 해결책을 찾았는지 알 필요가 없으며 단지 그 해결책이 최선이라는 것이 중요하다.
노모프는 AI는 회계사나 은행원이 계산기나 스프레드시트를 사용하는 것과 유사한 도구를 CSR에게 제공하는 것이라고 말하면서 기업이 AI를 생각하는 방식이어야 하면, 있으면 좋은 도구가 아니라 꼭 있어야 하는 도구라고 덧붙였다.
인공지능은 전환점에 도달하고 있으며, 인지 여부와 상관없이 일상생활에 빠르게 도입되고 있다. 노모프는 지금 우리가 보고 있는 것은 AI의 시작에 불과하며 기업 환경을 완전히 접수할 것이지만 영화와 같은 일은 없을 것으로 전망한다. 인공지능이 사람 간의 상호작용을 대체하지는 못할 것이지만 더 나은 고객 경험을 제공할 수 있는 강력한 도구가 될 것이다.

출처 :  https://www.forbes.com/sites/shephyken/2017/12/17/will-ai-take-over-the-world/#61a8b2355401

2018년에 새롭게 등장할 기술 전망 Smart pills, pet-tech, unmanned popup stores: Tech trends for 2018

미 뉴욕에 위치한 CB Insight社는 보고서를 통해 2018년에 우리가 목격할 선도적인 기술로서, 자동차 소유의 소멸과 더불어 인공지능을 가능하게 하는 칩, 노인과 애완동물을 위한 기술 등을 지목했다.

자동차 서비스 가입(subscription cars) :
한 달에 일정 금액의 대금을 지불함으로써 무제한 차량 서비스를 이용할 수 있는 서비스가 등장할 것이다. 이 개념은 운전자가 자동차 소유에 따른 여러 가지 불편사항을 해소하고, 차량 임대가 필요하지 않게 할 수 있다. 이러한 서비스를 제공하는 스타트업은 미 LA에 위치한 Fair로서, 지난 2017년 9월 서비스를 개시했으며, BMW와 Sherpa Capital 등을 포함한 투자회사에서 10억 달러 이상의 재원을 확보했다. 한편 볼보와 린컨 등도 지난 9월 자동차 이용 서비스 가입상품을 발표했다.
CB Insight社는 보고서에서 이들 프로그램들은 사람들이 실제로 차량을 소유하는 것에 그다지 관심을 가지지 않고 있다는 사실을 착안하여 개발된 비즈니스 모델이라고 지적했다. 2018년 볼보는 처음으로 가입을 기반으로 한 차량 이용 서비스를 제공할 예정이며, Fair는 100여개의 판매상들과 공식적으로 협력관계를 맺었다. 2018년은 이 비즈니스 모델이 크게 성공하는 한 해가 될 것이라고 CB Insight社는 전망했다.

인공지능 칩의 활용확대 : 
얼굴인식에서 의료용 이미지를 통한 질병 탐지 등에 이르기까지 인공지능의 사용이 폭발적으로 늘어나면서, 그 처리를 위한 칩의 개발 경쟁이 불붙을 전망이다. 미국에 있는 NVIDIA는 현재 인공지능 처리를 위한 칩 시장을 지배하고 있지만, 중국 정부의 지원을 받는 스타트업과 애플과 구글과 같은 미국의 대형 IT 기업들, 그리고 인텔 등과 같은 기존의 반도체 기업들은 모두 이 분야에 눈독을 들이고 있다.

국외 수익의 국내 환원: 
미 도널드 트럼프 대통령의 세금 개혁으로 인해 미 기업들은 15%에 이르는 세금 비율로 외국에서 벌어들인 수익을 본토로 환원할 것이다.
同社는 애플, 오라클, 알파벳, MS 등과 같이 현금을 많이 보유한 기업들은 해외에서 수십억 달러 규모의 자금을 본국으로 보낼 것이라고 보고서에서 지적했다.
이들 기업들은 현금으로 자신들의 주식을 다시 사거나 스타트업 기업에 투자할 수 있을 것으로 보인다.

사이버보안에 대한 우려가 지속 :
보고서는 사이버보안에 대한 인식의 증가와 개인이 느끼는 사이버 안전에 대한 관심이 늘어나고 있다는 점을 지적했다. 특히 취약한 부문은 개개인이 소유한 모바일 디바이스이다. 기업들은 모바일 단말기에 보안에 취약한 앱이 설치되는 것을 막고, 잘못된 보안 습관을 교정하기 위한 노력을 기울일 것이라고 同社는 지적했다.

운동장소가 필요 없는 운동 : 
인터넷에 연결된 자전거, 건강 정보 트래커, 그리고 카메라 등을 통한 운동 활동 전송 등을 통해 이용자들은 굳이 특별한 운동 장소에 가지 않아도 운동을 할 수 있다.

좀 더 나은 진단과 처치를 위한 스마트 필(smart pills) : 
환자에 상황에 따라 센서를 통해 약품의 처방과 처치가 이루어질 수 있다. 이스라엘 업체가 개발한 PillCam은 두 개의 작은 카메라가 달린 캡슐로서 의사들이 용종을 찾는데 도움을 줄 수 있다.
同社는 보고서에서 스마트 필은 두 가지 이유에서 매력적이라고 지적했다. 즉, 기존의 방식보다 덜 침투적(invasive)이고, 쉽게 확장 가능하다는 점이다. 규제당국은 이 부문에 대한 승인을 하고 있지 못하지, 향후 많은 발전이 기대된다고 전망했다.

Pet care: 
Samsung released its Dream Doghouse back in 2015, equipped with an automated dog feeder, a Samsung tablet, a treadmill lined with fake grass, and a hydrotherapy pool. Pets, and their owners “have a lot of technology to look forward to,” the report said, including smart kennels, wearables for health tracking, and genome analysis.

Physical retail on the move:
“Much of it has moved online. In the next iteration, physical retail is becoming decentralized, moving away from conventional stores or malls and into new niches. Look for new retail concepts in co-working spaces, in your Uber, in unmanned popup stores and vending machines.” Shops will appear anywhere, goods will be delivered by drones, purchases will be tracked by sensors, and kiosks will be automated.

3D printing:
From shoes to metals, the dream of 3D printing “is getting closer to reality,” the report said.

Elder care:
“As people age, they may lose partners, see loved ones move far away, or become isolated due to limited mobility. Increased loneliness can then lead to depression and other negative mental and physical health conditions. Technology is aiming to improve elders’ quality of life through a number of new products and services,” the report said. These include robots, surveillance technology, smart pills and websites to match caregivers to patients.

Real estate and property development: 
Tech giants are expanding into real estate as well. Tech giants like Google and Apple are setting up homes for employees: in July 2017, Google spent some $30 million buying 300 pre-fabricated homes for its employees with plans to use these in Mountain View.
That same month, Facebook unveiled plans to expand its corporate campus at Menlo Park, California, and will set up 1,500 units of housing. The “mixed-use village” will have transportation and amenities like a grocery store and a drugstore. And while the majority of housing would be for Facebook employees, there will be a portion open to the community, the CB Insights report said, with some of these offerings priced below market rate.

출처 https://www.timesofisrael.com/smart-pills-pet-tech-unmanned-popup-stores-tech-trends-for-2018

산업 자동화, 산업 4.0, 엣지 컴퓨팅 Q&A: Industrial automation, Industry 4.0, and edge computing

어드밴텍(Advantech)에 어떤 새로운 것이 있나?
어드밴텍의 장비와 솔루션으로 산업용 컴퓨터, 산업 자동화, 기계 자동화 기술, 하드웨어-소프트웨어 통합 및 여러 솔루션을 통해 산업 4.0을 촉진할 수 있게 되었다.
산업 4.0을 실현하기 위해 3단계 전략을 추진하고 있다. 1단계에서는 장비 연결성을 구현하는 것으로 장치, 기계, 생산라인 및 공장을 시스템에 연결하여 데이터 투명성 및 정보 시각화를 달성한다. 2단계에서는 데이터 수집 및 통합을 비롯하여 부가가치 제품 및 서비스를 스마트 제조 서비스로 소개한다. 마지막 3단계는 지능 형식 서비스로서 지능형 기계와 대용량 분석을 가능하게 한다.
이 목표 달성을 위해 어드밴텍은 네트워크로 연결된 아이팩토리즈(iFactories)와 아이머시너리(iMachinery)를 이용하여 스마트 제조로 전환을 촉진하고 있다. 더 나아가 6개의 스마트 팩토리 솔루션으로 산업 4.0을 위한 자동화 및 클라우드 혁신을 통합하여 개발한 기계 자동화, 장비 모니터링 및 최적화, 기계 모니터링 및 예측 유지보수, MES 통합 및 생산 추적성, 공장 에너지 관리 시스템, 공장 환경 모니터링으로 정의하고 있다.

최신 비전 제품과 개발 의도는 무엇인가?
AIIS-1200라는 팜 사이즈 비전 시스템으로 품질 검사 및 식별과 같은 머신 비전 검사 애플리케이션을 위한 제품이다.

경쟁사 제품과 어떤 차이점이 있는가?
초소형 설계, 단절형 디지털 I/O 지원, GigE 이더넷 전원장치(Power Over Ethernet) 및 USB 3.0 인터페이스, USB 카메라를 모두 지원한다.

회사에서 새롭게 진행하는 흥미로운 것은 무엇인가?
사물인터넷(IoT) 엣지에서 클라우드 PaaS 솔루션이 완비된 플랫폼을 통해 기계 비전 시스템에서 머신러닝을 가능하게 하고 있다. 또한 기계 비전 검사 소프트웨어도 출시했다.

가장 많은 성장이 기대되는 분야나 애플리케이션은 무엇인가?
테스트 및 검사 (비전 검사), 로보틱스, 엣지 컴퓨팅 등이다.

시장 변화가 제품 개발에 영향을 주는지 있다면 어떤 변화가 있는가?
그렇다. 확실히 영향이 있다. 버티컬 마켓/애플리케이션 진입에 집중하면서 시장 수요를 충족시키기 위해 필요한 변화를 항상 조정해야 한다.

향후 몇 년 동안 특정 동향이나 제품 등 “다음 큰 먹거리"에는 어떤 것이 있는가?
엣지 컴퓨팅과 인공지능이 기계들끼리 커뮤니케이션을 통해 지능을 갖게 할 뿐만 아니라 스스로 학습하고 새로운 가치를 창출하는 개선을 통해 비즈니스에 큰 영향을 줄 것이다.

이 떠오르는 분야에서 중인 새로운 제품이나 개발 중인 것이 있는가?
마이크로소프트 애저(Azure)와 AWS 그린패스(Greenpass)를 이용한 엣지 인텔리전스 서버를 들 수 있다.

출처:
http://www.vision-systems.com/articles/2017/12/q-a-industrial-automation-industry-4-0-and-edge-computing.html