Dec 9, 2010

"PC를 클라우드로"…구글, 크롬 노트북 공개

[지디넷코리아] 2010.12.08, 남혜연기자
▲ 구글이 7일(현지시간) 공개한 베타버전 크롬OS 노트북 'CR-48'


구글이 크롬OS를 탑재한 노트북과 애플리케이션 마켓 플레이스 '웹스토어'를 공개했다. 크롬OS 기반 노트북은 내년 중반께 공식 판매될 예정이다. 당초 예상보다는 판매가 늦어졌다는 지적이다.

구글은 7일(현지시간) 미국 샌프란시스코에서 크롬OS발표 행사를 갖고 해당 운영체제를 탑재한 베타버전 노트북(제품명 CR-48)을 선보였다. 크롬OS를 탑재한 첫 노트북이지만 아직까지 일반 소비자에 판매될 정도는 아니란게 구글 설명이다.

구글은 지난해 7월부터 크롬OS를 탑재한 하드웨어를 출시하겠다고 밝혀왔다. 주요 외신들은 구글이 연내에 자체 브랜드를 단 크롬 넷북을 출시할 것으로 예상해왔다. 구글은 이날 발표회에서 크롬OS를 탑재한 노트북은 내년 중반에 삼성전자와 에이서를 통해 출시될 것이라고만 언급했다. 자신만만했던 약속과는 달리 노트북 출시가 반년 이상 미뤄진 셈이다.

▲ 구글이 7일(현지시간) 공개한 베타버전 크롬OS 노트북 'CR-48'
씨넷뉴스 등 외신들은 이날 공개된 크롬 노트북에 대해 베타버전인 만큼 매우 단순하다는 선에서 평가를 마쳤다. 제조사 브랜드가 없는한, 아직은 '블랙박스'에 불과하다는 것이다.

그럼에도 구글은 크롬 노트북의 특징에 대해 몇가지 힌트를 내놨다.

우선 3G모뎀 기본 탑재다. 미국서 출시되는 크롬 노트북은 모두 이동통신사 버라이즌의 3G서비스가 탑재돼 출시된다. 사용자들은 제품 구입후 2년동안 매달 100메가바이트(MB) 데이터를 무료로 사용할 수 있으며 필요에 따라 다른 요금제를 선택할 수 있다.

플래시나 기타 애플리케이션을 크롬 브라우저 등에서 쓸 수 있지만 웹표준을 지킨 소프트웨어를 사용하도록 요구된다.

이 외에도 다수가 함께 노트북을 사용할 수 있록 선택사항으로 게스트 모드를 지원한다. 여러 ID를 사용한다는 것은 비밀번호를 필요로 하기 때문에 개인정보보 보호등에 효과가 있다고 씨넷뉴스는 설명했다.

함께 공개된 웹스토어는 이날 오후부터 사용이 가능하다. 선다르 피차이 구글 제품 관리 부문 부사장은 이 자리에서 "(웹스토어는) 크롬 브라우저를 기반으로 작동하지만 다른 '현대 브라우저'에서도 이용할 수 있다"고 언급했다.

웹스토어는 크롬 웹 브라우저를 기반으로 게임, 전자상거래 등 각종 웹 애플리케이션을 지원한다. 자동 업데이트를 지원하며, 웹에 접속되지 않은 상태에서도 일부 애플리케이션의 구동을 이용할 수 있게 했다.

Sep 29, 2010

내년부터 안드로이드가 세계 2위 스마트폰 운영체제(OS)가 될 것으로 전망

- 2014년 세계 스마트폰 시장 5억3천만대 규모
- 전체 휴대폰 시장에서 스마트폰이 차지하는 비중도 올해 20.4%에서 2014년 31.7%로 상승
- 데이터 트래픽 증가에 따른 액세스 네트워크 진화 가속


한국IDC는 2014년에 이르면 세계 스마트폰 시장이 연평균 24.9%의 높은 성장률로 5억3천만대 규모에 달할 것으로 전망했다. 또한 전체 휴대폰 시장에서 스마트폰이 차지하는 비중도 올해 20.4%에서 2014년에는 31.7%로 높아질 것으로 예측했다.

스마트폰을 운영체제(OS)별로 나누어볼 때, 안드로이드(Android)의 성장세가 단연 두드러진다. 안드로이드는 지난해 4.1%의 점유율에 불과했지만 올해에는 16.3%로 성장할 것으로 전망되며 내년부터 블랙베리(BlackBerry) OS를 제치고 2위로 올라선 뒤에 2014년까지 연평균 79%의 성장률(CAGR)을 기록하면서 비약적으로 성장할 것으로 전망된다.

국내 시장의 경우, 지난해까지는 스마트폰 시장이 미미한 수준에 불과, 전체 휴대폰 시장의 3.6%를 차지하는데 그쳤지만 올해에는 5백만 대를 넘어서면서 24.8%의 비중을 기록한 뒤, 2014년에는 40%까지 증가할 것으로 예상된다. 국내 스마트폰 시장에서 안드로이드 단말기가 차지하는 비중은 올해 50%에 근접할 것이며 2014년에는 63%의 점유율을 나타낼 것으로 전망된다.

한국IDC의 한인규 책임연구원은 "기업 시장에서는 유무선 통합(FMC)과 모바일 오피스 도입 증가 추세로 인해 스마트폰 수요가 급증하고 있으며, 일반 소비자 시장에서는 다양한 데이터 요금제 및 애플리케이션 제공과 단말기 가격 하락, 무선 인터넷 인프라 확대 등의 긍정적 요인으로 사용자가 큰 폭으로 확대되고 있다"면서, "운영체제 면에서 볼때, 심비안은 업계 1위인 노키아의 지원과 낮은 단말기 가격이라는 장점을 기반으로 시장에서 지속적으로 우위를 점하겠지만 안드로이드 운영체제 기반의 단말기는 개방성과 유연성, 맞춤화 기능의 장점으로 인해 제조업체들의 탑재 비중이 늘어나면서 심비안 운영체제를 위협하는 수준으로 성장하게 될 것"이라고 밝혔다.

이러한 스마트폰의 급성장에 따라 모바일 데이터 트래픽도 비약적으로 성장하고 있기 때문에 전세계 이동통신 사업자들은 데이터 트래픽 수용을 위한 방안 마련에 적극적으로 나서고 있다. Wi-Fi 네트워크의 확충을 통해 데이터 트래픽의 오프로드(off-load)를 시도하거나 와이브로로 데이터 트래픽을 분산 수용하는 방식을 도입하는 등 스마트폰 시장 확대에 따른 네트워크 용량 확보를 추진하고 있는 것이다. 특히 향후 망 공용화(network sharing) 정책을 도입하거나 HSPA+와 LTE 등의 액세스 네트워크 진화 방식을 통해 3G와 4G 네트워크 용량 증설에 대한 투자도 늘어나게 될 것으로 전망된다.

Sep 20, 2010

일본, 미래 클라우드 컴퓨팅의 모습

KISTI 미리안, 2010-09-17

작년부터 클라우드 컴퓨팅이라는 말을 자주 듣는다. 그리고 현재, 개인적으로 일상에서도 이것이 활용되고 있다. 클라우드 컴퓨팅이 보급되는 것이 개인적인 활용에서 대환영이지만 비즈니스적으로는 그렇다고 단언할 수 없다. 이유의 하나는 데이터가 어디에 있는지 모르고, 구름 위에 떠있는 먼 곳이라는 이미지 때문일 것이다. 그리고 “정보 누설, 시큐리티가 걱정”, “정말로 코스트 저감이 될까”라는 문제 때문에 도입하지 않은 기업이 많은 것으로 조사된 바 있다.참조

이 조사와는 별도로 “스스로 백업을 하지 않는다”, “해외 사업자의 서비스를 활용했을 경우, 네트워크 지연이 발생하기 쉽다”라는 소리도 듣는다. 게다가 서비스 제공 사업자의 클라우드 컴퓨팅 서비스는 객단가가 낮기 때문에 이득을 보지 못한다. 그 때문에 고객의 수를 늘리는 비즈니스 모델로 전환하지 않으면 안 된다. 아직도 과제가 많은 것이 현실이다. 향후 클라우드 컴퓨팅 서비스 이용에서 어떠한 서비스를 원하는지에 대해, 클라우드 컴퓨팅 도입의 기술적인 구축 지원 40.7%, 클라우드 컴퓨팅 도입 컨설팅 33.7%, 클라우드 컴퓨팅 플랫폼에서 시큐리티의 제3자 평가 33.7%, 저가격의 저렴화 33.7%, 기존 시스템도 포함한 전체 시스템에 대한 시큐리티 서비스 32.6%, 네트워크의 최적화 지원 27.9% 등을 들고 있다.

클라우드 컴퓨팅은 이용자측에서 인터넷의 세계에 어플리케이션이나 데이터가 있고 인터넷에 연결되어 있으면 어디에서도 이용할 수 있는 것이다. 이러한 전제로 이번 타이틀인 “미래의 클라우드 컴퓨팅의 모습”을 상상해보자.

ㅇ 클라우드 컴퓨팅, 5~10년 후의 세계

- 교육 : 학교에서는 교과서가 없어진다. 두 개의 화면 터치 디바이스(iPad의 크기로 닌텐도 DS와 같이 두 개 화면)로 기본적인 사용법은 다른 한쪽의 화면에서 교과서를 표시하고, 다른 한쪽의 화면이 교과서와 연결된 노트이다. 당연히 교과서에는 언더라인이나 낙서가 가능하고, 진척도나 이해도 등은 클라우드 컴퓨팅측에 보존되어 학교?학원?가정 어디에서라도 그 정보에 액세스 할 수 있기 때문에 개인에게 맞은 페이스와 방법으로 학습을 할 수 있다. 또한, 전자 교과서가 되면 초등 학생의 가방은 디바이스의 배터리가 될 것이다.
- 의료 : 모든 진료가 전자 진료기록카드에 기록되며, 의사가 없는 지역에서는 TV를 통해서 진단을 할 수 있다. 클라우드 컴퓨팅상에 환자의 데이터가 있기 때문에 어느 병원에서도 과거의 진단서에 액세스하여 연속된 치료를 할 수 있다.
- 자동차  : 자동차 내비게이션은 인터넷에 연결되어 있다. 주행 루트나 차내 조작, 주행 습관 등의 데이터가 클라우드 컴퓨팅상에 기록된다. 그 데이터를 이용하여 운전기사에 맞은 서비스가 자동차 내비게이션을 통해 제공된다.
- 가정 : 클라우드 컴퓨팅 게임이 주류가 된다. 데이터는 클라우드 컴퓨팅상에 있으며, 다른 단말에서 같은 게임을 하는 경우, 이전 게임에 이어 계속 게임을 할 수 있게 된다. 가전제품이 클라우드 컴퓨팅을 통해 연결된다. 스마트 폰으로 집안 전 제품을 컨트롤한다. 떨어져 있는 부모님의 생활 상황을 알 수 있어 대응하기 쉬워진다.

누구나 인터넷으로 연결된 디바이스를 가지고 있으면, 세상의 흐름이 한층 더 빨라지는 것은 아닐까. Twitter를 하고 있는 사람끼리 Twitter로 연락하는 케이스가 증가하고 있다. Twitter와 메일의 차이는 스피드이다. Twitter는 140개의 문자라는 제한이 있는 것이 특징이고, 단적인 표현으로 정보를 송신할 수 있다. 5 ~ 10년 후에는 Twitter의 차세대 서비스가 있을지도 모르지만, “단적으로 마음 편히 입력”하는 것은 변하지 않을 것으로 보인다.

ㅇ 클라우드 컴퓨팅, 10년 후 이후의 세계

위에서 열거한 각 분야의 데이터가 제휴된다. 그리고 이것들을 총괄한 개인 포털 페이지가 생긴다. 여기에서 각종 서비스에 들어갈 수 있다. 하나의 Twitter와 같은 Live형 서비스와 같이 현재의 장소를 표시하는 것이 빈번히 되면, 프라이버시가 없어지는 것은 아닐까하는 염려도 있다. 시큐리티나 프라이버시가 한층 더 중요한 키워드가 될 것이다.

이러한 큰 정보를 억제하는 기업은 이용자 입장에서 “사용하기 쉽게”, 그리고 “빠질 수 있는” 소프트웨어 개발의 “스마트 IT”가 필요할 것이다. 이용자가 스마트하게 활용할 수 있는 것이 앞으로의 키워드가 될 것이다.
출처 : http://www.itmedia.co.jp/enterprise/articles/1009/06/news064.html

Sep 13, 2010

CPU와 GPU 통합한 APU시대 본격 열린다

인텔-AMD 이번주 APU 앞다퉈 발표 황치규 기자 delight@zdnet.co.kr 2010.09.13

PC 플랫폼 시장이 새로운 국면에 접어들었다.

따로따로 놀았던 일반 프로세서(CPU)와 그래픽 프로세(GPU)를 결합한 통합칩의 등장이 임박하면서 PC가 제공하는 사용자 경험(UX)에 어떤 변화를 몰고올지 비상한 관심이 쏠리고 있다.

인텔과 AMD로 대표되는 업체간 경쟁도 본격화됐다. 비슷한 시점에서 양사 모두 CPU와 GPU를 결합한 APU(Accelerated Processing Unit) 시대로의 진입을 외치기 시작했다.

이번주의 경우 양사간 기싸움이 더욱 달아오를 전망. AMD는 13일(현지시간)부터 15일까지 코드명 '자카테'(Zacate)로 알려진 듀얼코어 기반 퓨전 APU 플랫폼을 시연한다.

AMD는 사용자 PC 경험을 크게 향상키기 위해 설계됐음을 분명히 했다. 퓨전 APU는 고화질 스트리밍 동영상, 다이렉트11 플랫폼과의 호환성, 인터넷 브라우저 가속화 기능 등을 제공한다.

AMD는 이번 시연에서 프로세서 부하가 많은 멀티미디어 작업을 원활하게 구동하는 자카테 기반 플랫폼의 유연성 보여주고 온라인 게임 환경에서 다이렉트X 11을 지원하는 것도 입증하기로 했다. 미래 GPU 구동 웹 브라우징이 APU 기반 플랫폼을 통해 어떻게 지원되며, 이들 플랫폼이 기존 AMD 및 인텔 프로세서 기반 노트북과 어떻게 다른지도 직접 느낄 수 있도록 한다는 방침이다.

AMD 경영진들은 오는 13일부터 약 1주일 간 AMD 공식 영문 블로그인 blogs.amd.com을 통해 시연 내용을 전하고, CPU, GPU 및 APU 시장 최근 동향에 대한 다양한 의견을 계속해서 포스팅할 예정이다. 첫 포스팅은 소비자 PC 시장과 소프트웨어 개발자 에코시스템에 관한 내용이 될 것이라고 회사측은 설명했다.

AMD APU 기반 플랫폼은 주력 노트북과 데스크톱 시장을 겨냥하고 있다. 틈새 시장 공략용이 아니라는 얘기다. AMD는 올해말 또는 내년초에 퓨전 APU를 선보일 예정이다.

AMD에 이어 세계 최대 CPU 업체 인텔도 APU 열풍에 가세한다. 인텔은 이번주 열리는 인텔 개발자 포럼(IDF)에서 CPU와 GPU를 통합한 '샌디브릿지'(코드명)를 시연하기로 했다. 샌디브릿지는 2011년초 시장에 공식 선보일 것으로 전해졌다.

PC는 물론 모바일 시장도 GPU와 CPU를 통합한 플랫폼이 시장을 파고들기 시작했다. 엔비디아는 CPU와 GPU를 통합한 테크라2를 앞세워 스마트폰 시장 공략에 본격적인 시동을 걸었다. LG전자의 경우 이미 테크라2를 탑재한 스마트폰을 공개해 눈길을 끌고 있다.

트랙백 주소 : http://www.zdnet.co.kr/Reply/trackback.aspx?key=20100913093011

Sep 7, 2010

미래 인터넷을 설계하기

KISTI 미리안 글로벌동향브리핑, 2010-09-07

40년 전에는, 아무도 인터넷의 발전을 예상하지 못했다. 처음 인터넷이 발명되었을때에는 주로 슈퍼컴퓨터와 같은 기기들을 서로 연결하기 위해서 만들어졌었기 때문에 단지 몇몇 과학자들을 위해서만 네트워크화된 컴퓨터가 필요했을 것이다. 그래서 IP는 기계들을 매우 특별하게 만들어주었으며, 그들이 서로를 찾고, 이야기할 수 있도록 해주었다.

그러나, 인터넷은 아무도 예상하지 못했던 발전을 거듭해오고 있다. 그러한 발전속에서, 초기의 가정들을 뛰어넘고 있으며, 본래의 통신모델은 더 이상 큰일로 여겨지지 않고 있다.

개별적인 기계를 찾는 것보다, 현재의 인터넷 사용자들은 컨텐츠를 찾는데 더 많은 관심을 가지고 있다. 근본적인 변화는 무엇인가를 찾거나, 기계의 주소를 명확히 하려는 IP들의 요구에 대응하는 일이 점차 비효율적인 것이 되어가고 있다는 것이다. 실제로 사용자들이 원하는 것은 몇가지의 정보들이기 때문이다. 인터넷이 미래로 이동해가기 위해서는, 개념적으로는 간단하지만, 변형적인 구조적 이동을 위해서는 현재 주소와 호스트 중심에서 사용자들과 애플리케이션이 관심을 기울이고 있는 컨텐츠로의 이동이 요구되고 있다.

컴퓨터과학과 Tarek Abdelzaher교수가 이끌고 있는 일리노이대학 연구팀은 변형적인 변화를 실현하기 위해서 노력하고 있다. Abdelzaher와 그의 팀은 UCLA와 다른 연구소의 연구자들과 공동으로 NDN(Named Data Networking)이라는 새로운 인터넷 구조를 개발할 예정이다. 전체 프로젝트의 주요 설계자는 Van Jacobson으로, TCP/IP의 큰 발전을 만든 인터넷 개척자 중 한사람이다. 그는 한동안 NDN에 대한 비전을 가지고 있었다.

NDN은 현재 인터넷의 호스트 기반, 포인트 투 포인트 통신구조의 장점을 활용하고 있으며, 단점을 다루고 있다. 그래서 현재 인터넷에서 지원되지 않는 새로운 통신패턴을 자연스럽게 받아들이도록 해준다. 이 프로젝트는 NDN이 미래의 인터넷 구조로서 승인될 수 있도록 여러 가지 문제들을 연구하고 있다. 그것은 라우팅 확장성, 빠른 포워딩, 서명 생성 및 검증의 효율성, 신뢰모델, 네트워크 보안과 방어, 컨텐츠 보호 및 개인정보보호, 기본적 통신이론 등이다.

Abdelzaher와 그의 팀은, UCLA와 공동으로 미래 인터넷을 위한 애플리케이션 개발을 이끌어 갈 것이다. 일리노이대학팀은 어떻게 NDN 패러다임이 이러한 애플리케이션의 개발을 단순화할 수 있는지 그리고 효율과 자동화를 향상시킬 수 있는지를 보여주게 될 것이다. 이것 뿐만 아니라, 더 신뢰할 수 있도록 만들어줄 것이다. 이러한 과정에서, Abdelzaher는 NDN 패러다임 자체의 기본 구조를 향상시킬 수 있는 새로운 통찰력을 발견할 수 있기를 바라고 있다.

“센서와 다른 현대 기술들이 만들어낸 많은 정보들과 이것의 기하급수적인 증가에 따라서, 미래 애플리케이션들은 몇가지 정보의 개념을 중심으로 점차 모여들게 될 것이다. 즉, 원자료(raw data)의 증가하는 양과 간결한 실질적 정보에 대한 사람들의 요구 사이에 벌어지는 격차를 연결하는 것을 말한다. 한가지 생각할 수 있는 것은 웹브라우징이다. 이것은 사람들이 서로 상관없는 수많은 데이터에서 유용한 데이터를 찾을 수 있도록 도와주기 때문이다.” 라고 Abdelzaher가 말했다.

새로운 패러다임은 인터넷의 성능을 상당히 향상시킬 수 있고, 제작하는 것을 단순화하며, 미래의 정보중심 인터넷 애플리케이션의 보급에 대한 잠재력을 가지고 있다. 그리고 클라우드 컴퓨팅 애플리케이션, 센싱 애플리케이션 및 스마트 공간도 포함된다.
“안전하며, 매우 신뢰할 수 있는 정보기술 인프라에 대한 우리의 믿음이 계속 증가함에 따라서, 우리들의 최신의, 미래의 요구가 현재 인터넷의 새로운 변화에 대한 상태를 유지해갈 수 있을지는 더 이상 확신할 수 없다. 그러므로 연구커뮤니티에 새로운 인터넷 구조를 제안하는 우리의 요구는 미래에 대한 약속이 되고 있다.” 라고 CISE의 컴퓨터 및 네트워크 사업부의 Ty Znati가 말했다

출처 : http://cs.illinois.edu/news/2010/Aug27-4

Aug 10, 2010

빛의 속도로 처리하는 컴퓨팅

KISTI 미리안 글로벌동향브리핑,2010-8-10

금속 구리선을 대체하는 광섬유는 슈퍼컴퓨터에서 랩톱 까지 모든 것을 변화시킬 것이다. 전 세계 컴퓨터는 금속 물질 대신 보다 빠른 광섬유 기술 덕분으로 급격하게 처리 속도를 혁신할 것이다. 인텔의 이사인 마리오 파니시아는 “모든 장거리 통신은 레이저 기반이지만 컴퓨터 기기 내부에서는 아니었다. 새로운 광 접속 연결은 컴퓨터 내부에서도 광 속도 처리를 가능하게 할 것이다”라고 언급했다.

파니시아 팀은 광 섬유망을 경유하여 레이저 신호를 암복호화하는 기능을 가진 아주 작은 실리콘 칩을 개발했다. 현재, 데이터가 광섬유 접속을 경유하여 컴퓨터에 도달 했을때 전기회로 내부의 분리된 광 기기로 이동해야만 했다. 새로운 시스템은 하나의 실리콘 내에서도 모든 것이 가능하기 때문에 처리속도가 크게 빨라 질 것이다. 지난 주, 파니시아 팀은 최초로 실리콘 내부에 완전히 통합된 통신 시스템을 시연했다. 이 시스템은 초당 50GB의 자료량을 전송할 수 있다. 이는 1초 내에 HD 영화 전체 한편을 전송하는 수준이다.

실리콘 광자 칩은 컴퓨터 프로세서나 메모리 같은 컴퓨터 주요 요소간의 전자적 접속을 대체할 것이다. 오늘날 사용되는 구리선은 초당 10GB 정도 데이터 신호를 전달 할 수 있다. 이것은 한 개의 서버 내부에 있는 CPU나 메모리 같은 주요요소들이 분리될 수 없음을 의미하여 컴퓨터 제작에 제한을 가져오고 있다. 새로운 인텔 칩은 미세하게 다른 전자 주파수에서 하나의 광섬유로 데이터를 보내는 트랜스미터 칩에 4개의 레이저를 가지고 있다. 더 많은 레이저를 가진 칩들은 초당 1,000 GB 속도로 통신할 수 있다. 손톱만한 크기의 한대 칩으로 초당 1TB를 전송할 수 있다.

이러한 칩들은 구글, 페이스 북, 마이크로소프트 같은 웹 거인들이 막대한 비용으로 운영하는 데이터 센터에 큰 영향을 줄 것이다. 데이터 센터들은 서버에서 기기 요소들을 배열하는데 큰 제한을 주는 큰 구리 집합체로 되어 있다. 만약에 메모리를 프로세서로부터 1 피트만이라도 분리할 수 있다면 하나의 CPU를 위해서 대형 메모리 보드를 추가 할 수 있다. CPU로부터의 서버 메모리 분리는 통풍을 쉽게 할 수 있기 때문에 페이스 북이나 은행의 데이터 센터 운영비의 절반이 냉각 비용이기 때문에 큰 절감 효과를 가져 올 수 있다.

콜롬비아 대학의 실리콘 광자 연구 그룹의 케란 버그만 조교수는 “더 많은 비용 절감은 실제로 광 접속이 운영에 필요한 전기를 덜 요구한다는 사실에 기인하다”고 언급했다. 광섬유는 저전력 신호를 요구하면서도 통신 속도가 더빠르다. 버그만 연구팀은 Lawrence Berkeley와 MIT Lincoln 연구소에서 광섬유 통신상의 처리속도를 시뮬레이션 한 결과, 에너지 효율성이 기하급수적으로 우수한다는 결과를 얻을 수 있었다. 특히 고주파수 프로세스나 비디오 스트리밍 같은 애플리케이션에서 가장 큰 이득을 가졌다. 고성능 컴퓨터에서 광 접속을 연구하는 보스톤 대학의 아제이 조시 조교수는 “로직(프로세서)과 메모리 간의 채널 속도를 향상시키려면 메모리 설계를 재고할 필요가 있다. 프로세서와 광 접속 간의 속도 간격이 비록 작지만 전자적 처리 대신 광자적으로 프로세서가 작업하는 것이 더 좋을 것”이라고 언급했다.
출처 : http://www.technologyreview.com/computing/25924/

Aug 9, 2010

클라우드 시장에 1200억 투입...역시 공룡 KT

전자엔지니어, 2010년08월09일

KT가 오는 2011년까지 총 1200억 원이라는 자금을 투입하며 개인용 및 기업용 클라우드 시장에 뛰어든다.

KT는 5일 서울 광화문 사옥에서 간담회를 갖고 2011년까지 클라우드 컴퓨팅 사업을 대대적으로 강화하기 위한 로드맵을 발표했다.

클라우드 컴퓨팅은 가상화 기술 등을 활용해 유무선 네트워크 기반으로 서버, 스토리지, 어플리케이션 등을 활용하는 비즈니스로 하드웨어, 소프트웨어 등 IT 자원을 필요로 할 때 필요한 만큼 빌려 쓰고 사용한 만큼 요금을 지불하는 서비스이다.

KT는 자회사인 KTH를 비롯해 주요 고객사 및 경쟁업체에 가상의 클라우드 컴퓨팅을 도입한 결과, 업체별로 IT 운용비용의 60%∼90%를 절감한 것으로 조사됐다.

KT 클라우드추진본부장 서정식 상무는 "2013년까지 6000억 원으로 확대되는 국내 클라우드 컴퓨팅 시장에서 50% 이상의 점유율을 기록할 것"이라고 강조했다.

KT는 2011년까지 총 4단계로 나눠 총 1200억 원을 투입해 개인용 및 기업용 클라우드 서비스를 지속적으로 선보일 예정이다.

KT는 앞서 지난 6월 말 개인용 클라우드 서비스인 'U클라우드' 서비스를 출시해, 현재 5만 명 이상의 고객에게 문서, 사진, 음악 등의 데이터를 원격 스토리지에 자동 백업할 수 있는 '개인용 스토리지 서비스'를 제공하고 있다.

이어 KT는 8월 중에 중소 기업들을 대상으로 협업, 파일공유, 폴더별 접근권한 설정, 관리자 기능을 지원하는 'U클라우드 프로' 서비스를 출시하고 10월부터 U클라우드 서비스의 동영상 스트리밍 서비스를 시작할 예정이다.

또, 10월에는 충남 천안시 목천읍에 '클라우드 데이터센터(그린 IDC)'를 오픈하여 기업용 클라우드 서비스를 본격적으로 내놓을 계획이다. 특히 이번에 마련되는 클라우드 센터는 기존 인터넷 데이터센터에 비해 전력 효율을 2배 이상 높여 탄소 배출량을 최대 90%까지 절감시킬 방침이다.

12월에는 서버인프라를 빌려주는 IAAS(Infra structure as a Service) 및 데이터베이스 구축 소프트웨어를 빌려주는 DAAS(Database as a Service) 서비스를 출시하고 내년 1분기에는 소프트웨어 개발 환경을 제공해 주는 PAAS(Platform as a Service) 서비스를 상용화 하며 2분기에 PC 가상화 서비스를 시작한다.

특히 KT는 향후 클라우드 서비스를 스마트폰, 태블릿PC, IPTV 등 IT기기 간 자유로운 콘텐츠 공유가 가능하도록 지원할 방침이다.

KT측은 "다양한 클라우드 컴퓨팅 서비스를 지원하고, 전국의 유휴 시설을 클라우드 컴퓨팅 제공 공간으로 확대할 것"이라면서 "장기적으로 정부의 `스마트 워킹' 도입이 용이해질 것"이라고 밝혔다.

데이터 센터의 에너지 효율 개선시킬 새로운 전력 기술

By Peter Oaklander Intersil Corporation, 전자엔지니어 2010년08월02일

Lawrence Berkeley National Laboratory의 2009년도 보고서에 따르면, 데이터 센터의 전기 소모량은 이제 미국 내 총 에너지 사용량의 2.5퍼센트 가까이에 이른다고 한다. 모바일 인터넷과 클라우드 컴퓨팅 그리고 기타 기술 동향이 성숙해감에 따라 이러한 수치는 계속해서 급속한 증가를 보일 것이다. 2009 VMWare Corporation 보고서에 따르면, 2009년 현재 데이터 센터의 에너지 소모량은 연간 12퍼센트 정도의 상승세를 보이고 있다고 한다. 미국 내의 총 전력비용만 해도 이제는 연간 34억 달러 가까이에 이른다. 그 결과, 전력소모를 줄이고 용량을 관리하며 환경에 대한 책임을 고무시키려는 전략들이 매우 중요한 목표가 되었다.

이러한 전략들은 데이터 센터의 서버 수가 매년 10퍼센트 정도씩 증가함에 따라 매우 중요해졌다고 2009 McKinsey and Company 보고서는 밝히고 있다. 새로운 세대의 서버들은 복잡하고 전력소모도 클 가능성이 높다. 예를 들어, 전형적인 서버 내의 DC/DC 레귤레이터 수는 엄청나서 CPU Vcore에 5위상 또는 6위상 레귤레이터들이 사용된다. 전체적으로 이들은 1V에서 최대 150A의 피크 전류를 제공하는데, 이는 CPU당 150와트에 해당한다. 게다가 메모리 레일은 추가로 25~120 와트의 전력을 소모할 수 있다. 다른 레일의 전력소모는 다소 덜해서 개당 수백 밀리와트에서 5와트 정도이다. 그러나 총 소모전력은 급속히 증가하고 있다.

기업 및 IP 서비스 제공업체들로부터 무선 기지국 네트워크 컨트롤러나 라우터와 같은 임베디드 어플리케이션들에 이르는 서버의 융성은 새롭고 고효율의 전력관리 기법들을 요구한다. 그 솔루션 가운데 하나가 데이터 센터에 있는 여분의 서버들의 전력을 끄는 것으로서, 이는 절전을 통해 즉각적인 에너지 비용 절감을 가져올 수 있다. 시스템을 적게 사용할수록 당연히 전력소모와 운영비는 줄어든다. 활용도가 적은 엔트리 레벨 서버가 본래 갖는 작업부하는 50와트의 에너지를 소모하여 연간 600 달러 정도의 비용이 든다. 반면에 16개의 가상머신들을 돌리는 서버의 가상머신 작업부하는 그 몇분의 일인 5와트 밖에 소모하지 않아 비용이 연간 45 달러 정도에 불과하다.

서버의 가상화가 도움이 될 수 있는 것은 로딩이 줄어듦에 따라 하드웨어의 사용이 줄어들기 때문이다. 전력소모를 줄이는 또 다른 방법은 AC/DC 변환에서 POL(Point of Load)에 이르는 전력망의 경부하 효율을 높이는 것이다. 이와 유사하게, 전형적인 개인용 컴퓨터는 대부분의 시간을 비교적 낮은 전력으로 동작한다. 가상화 소프트웨어는 효율을 개선시켜 주는데, 각각의 서버가 최고의 MIPS 속도로 동작하도록 함으로써 서버 팜의 활용도를 극대화한다.

효율은 Intersil사와 같은 업체들이 개발 및 향상시키고 있는 디지털 코어 컨트롤러의 구현을 통해서도 개선할 수 있다. 이런 종류의 전력관리 기술은 모바일 및 컴퓨팅 어플리케이션용으로 개발되고 있다.

경부하 효율의 개선에 대해 고려해 보자. 이 경우, CPU 코어 레귤레이터는 최대 부하(100 암페어가 넘을 수 있다)에서 경부하(1 암페어 정도)에 이르기까지 90퍼센트 이상의 효율을 달성할 수 있다. 데이터 센터에서 이런 종류의 높은 전력 부하는 서버의 코어 CPU와 고밀도 메모리는 물론 네트워크 데이터 트래픽을 다루는 커스텀 ASIC에도 존재한다.

전력소모의 제어를 돕기 위해 Intersil사와 같은 업체들에서는 서버의 DC/DC 효율을 개선하기 위한 새로운 다위상 및 POL 아키텍처들을 개발하고 있다. Intersil사의 VR12 6위상 레귤레이터와 같은 다위상 레귤레이터들은 자동 위상 탈락과 같은 새로 개발된 알고리즘들을 이용하여 특히 경부하 조건에서의 효율을 개선하도록 설계되었다. 다이오드 에뮬레이션 모드 및 스레숄드 상의 게이트 전압은 10퍼센트 부하 조건에서 효율을 20퍼센트까지 개선할 수 있으며, 활용도가 떨어질수록 효율은 더 높아진다. 효율은 수 암페어에서 거의 100 암페어에 이르기까지 두 자리 수 이상으로 유지할 수 있다.

보다 적은 손실로 보다 높은 스위칭 주파수를 가능케 해주는 DrMOS와 같은 새롭고 통합된 전력단들도 있는데, 이는 Ron 수치와 기생-FET 캐패시턴스가 보다 낮기 때문이다. 다른 레일의 경우에는 보다 새로운 레귤레이터들이 포터블 시스템의 기법을 차용하여 다른 효율개선 수단을 제공하고 있는데, 여기에는 PWM으로부터 PFM으로의 전환과 보다 높은 스위칭 속도와 밀도를 위한 FET의 통합이 포함된다.

고출력 CPU와 메모리 및 ASIC 파워 레일들은 물론 FPGA, 보조 아날로그, I/O 및 대기 회로들을 위한 다른 레일들의 급증을 고려할 때, 이러한 아키텍처들의 총체적인 이점은 상당히 클 수 있다.

효율을 개선하는 또 다른 힘은 전력망에 지능을 추가하는 것이다. 디지털 전력관리 기술은 가상화와 함께 CPU 활동을 데이터 센터 서버의 일부분으로 집중시킴으로써 다수의 유휴 서버들을 손쉽게 저전력 상태로 만들 수 있다. 디지털 전력은 또한 과전압/전류 및 온도와 같은 진단 기능들을 이용해 입력 및 부하 전류, 전압 그리고 전력을 모니터링할 수 있도록 해준다.

이는 데이터 센터 시스템 컨트롤러가 효율을 모니터링하고 실시간 상태를 토대로 조정할 수 있도록 해준다. Zilker Labs ZL2106과 같은 디지털 전력관리 IC들은 변환을 상이한 부하 상황들에 적응시켜 주고 정보를 다시 호스트에 알려주는 첨단 알고리즘들을 제공한다. 디지털 파워 컨버터들은 전력의 고성능 변환과 관리가 극히 중요한 통신 인프라 시스템에 사용되고 있다.

이런 종류의 제품과 기술 능력 덕분에 데이터 센터 및 서버 수가 계속해서 늘어나도 데이터 센터의 에너지 소모를 줄이고 전력사용을 최적화 하는 문제에 부응할 수 있는 것이다.

LG U+, 개인 미디어 클라우드 서비스 ‘U+ Box’ 출시

전자엔지니어 10년08월04일

LG U+가 이동통신망과 ACN(AP Centric Network) 인프라를 기반으로 한 개인클라우드 서비스를 출시, 탈통신 행보에 속도를 더하고 있다.

LG U+는 100Mbps급 초고속 무선 Wi-Fi 서비스와 3G망을 연계해 개인의 멀티미디어 콘텐츠를 언제나 자유롭게 즐길 수 있는 ‘U+ Box’ (www.uplusbox.co.kr)를 출시한다고 밝혔다.

‘U+ Box’는 고객이 PC나 스마트폰 등을 이용해 업로드한 사진, 음악, 동영상 콘텐츠를 스마트폰은 물론 PMP 및 디지털액자, 태블릿 PC, IPTV등의 인터넷 기기를 통해 어디서나 실시간으로 감상을 할 수 있는 멀티미디어 N-Screen 서비스다.

특히 ‘U+ Box’는 ▲고객이 직접 사진, 동영상, 음악 등을 자유롭게 업/다운로드 할 수 있는 공간인 My Media와 ▲최신 드라마와 예능, 영화 등을 볼 수 있는 DISKPOT VOD 서비스 ▲디지털 카메라나 스마트폰으로 촬영한 사진을 인화하거나 사진첩으로 직접 만들 수 있는 아이모리 서비스로 구성되어져 있다.

우선 My Media 서비스는 고객이 업로드하는 모든 동영상 콘텐츠를 고객이 이용하는 디지털 기기에 맞는 파일형태로 자동변환(Trans-coding)해준다. 이로인해 고객이 케이블을 이용해 PC와 디지털기기를 연결, 직접 파일을 변환하지 않아도 바로 이용할 수 있는 장점이 있다.

또 초고속 유/무선망을 바탕으로 빠른 실시간 스트리밍 서비스가 가능해 대용량의 동영상 파일을 단말에 다운로드 받지 않더라도 안정적으로 이용할 수 있어 고객 단말의 메모리 부담을 최소화했다.

DISKPOT VOD 서비스의 경우 최신영화는 물론 KBS, MBC, SBS 방송3사의 드라마와 교양, 예능, 애니메이션 등 총 500여편의 VOD콘텐츠와 미리보기 서비스를 제공한다. LG U+는 각 콘텐츠 사업자 등과의 협의를 통해 고객의 니즈에 맞는 다양한 콘텐츠를 지속적으로 확대해 나갈 계획이다.

아이모리 서비스에서는 디지털 카메라나 스마트폰 등으로 촬영한 사진을 고객의 취향에 맞게 편집하거나 인화가 가능하며, 사진첩으로도 제작이 가능하다.

‘U+ Box’는 1GB의 저장 공간이 무료로 제공되며 10GB의 용량을 추가할 경우 월 2,000원에 제공된다. LG U+는 다음달부터 U+ Wi-Fi100 서비스 또는 OZ데이터 요금제에 가입한 고객에게는 10GB의 저장공간을 기본으로 제공할 계획이다.

또 정기적인 보안 업그레이드 서비스와 2중 백업을 통해 고객 데이터의 유실과 개인정보의 노출을 사전에 방지, 고객들이 보다 안심하고 ‘U+ Box’ 서비스를 이용할 수 있게 했다.

Jul 12, 2010

IEEE 40/100Gbps 이더넷 표준 인증

KISTI 미리안 2010-07-07

IEEE가 40/100Gbps 이더넷 동작을 가능하게 하는 새로운 표준인 IEEE 802.3ba를 비준했다.

IEEE 802.3 이더넷 표준의 개정판으로, 동시에 두개의 새로운 이더넷 속도를 정리한 최초의 표준인 IEEE 802.3ba는 고속 서버 연결성 및 코어 스위칭의 차세대를 위한 기반을 조성할 것이라고 IEEE 는 말한다.

IEEE에 의하면 6월 17일 비준된 IEEE 802.3ba 표준은 더 넓고 더욱 견고한 대역폭을 제공함으로써 기존의 이더넷 역량을 훨씬 초과하는 대역폭을 요구하는 애플리케이션들이 증가하고 있는 것과 같은 문제점들을 해결할 것이라고 한다. IEEE P802.3ba 40Gbps와 100Gbps 이더넷 태스크 포스와 International Telecommunication Union(ITU)의 Telecommunication Standardization Sector Study Group 15간의 협력은 이러한 새로운 이더넷 속도가 광 전송 네트워크상에서 전송 가능하도록 보장하기 위한 것이었다고 이 단체는 말했다.

IEEE P802.3ba 태스크 포스의 의장이자 Force10 Network에서 이더넷 기반 표준 관리자역할을 수행하고 있는 John D`Ambrosia는 성명을 통해 IEEE 802.3ba가 많은 대역폭을 요구하는 애플리케이션의 성장에 의한 병목 현상을 제거하고, 현재의 대역폭 요구사항을 만족시키기 위하여 확장성있는 구조를 제공함으로써 보다 강력한 서버를 가능하게 하며 미래의 이더넷 속도 향상을 위한 견실한 기반을 제공할 것이라고 말했다.

"이는 이더넷 가치 사슬의 모든 곳에서 혁신에 박차를 가하게할 미래지향적인 표준이고 국제적인 규모에서 보다 광대역 연결을 제공하기 위해 필요한 필수적인 구조를 제공할 것이다"라고 IEEE 802.3 Working Group의 의장인 David Law는 말했다. "IEEE 802.3ba는 새로운 차세대 기술 도입을 준비하면서 현재의 수요를 만족시킬 수 있게 해줄 것이다."

IEEE 802.3ba는 기존의 IEEE 802.3 장비들과 호환성을 유지할 것이라고 IEEE는 말했다. 새로운 표준은 또한 현재의 네트워크 구조에서 흔히 사용되고 있는 복잡한 링크 통합(link aggregation) 방식을 단순화함으로써 운영 비용 감소 및 향상된 에너지 효율성과 같은 분명한 이점들을 만들어낼 것으로 기대된다.

출처 : http://www.eetasia.com/ART_8800610868_499488_NT_c37bbb78.HTM

Jun 16, 2010

미국 정부차원에서의 클라우드 컴퓨팅을 향한 정책방향

KISTI 미리안 『글로벌동향브리핑(GTB)』 2010-06-16

미국 연방정부의 최고정보책임자(CIO)인 Vivek Kundra가 지명한 NIST(미국 표준기술 연구소)에서는 연방정부의 클라우드 컴퓨팅의 안전한 채택을 위하여 각종 표준기관, 사설시관, 각종 이해관계자들과 공동으로 표준과 가이드라인들을 개발하고 있다. NIST에 근무하고 있는 컴퓨터 연구자들은 미국 정부의 신속하고 안전한 클라우드 컴퓨팅의 채택을 가속화시키기 위하여 다음과 같은 두 가지 보완책을 마련하고 있는데, 이에 대하여 다음과 같이 살펴보고자 한다.

클라우드 컴퓨팅은 공유된 컴퓨팅 자원에 대한 주문형 접근방식으로, 원격 분산 데이터 네트워크를 통하여 이를 실현시키고 있다. 미 연방 CIO인 Kundra는 클라우드 컴퓨팅과 같은 새로운 수단이 정부운영 비용을 절감시키고, 혁신을 가속화시키며, 근본적으로는 정부조직의 기술 딜리버리 방식 자체를 변화시키는 효과가 있을 것이라고 내다보고 있다.

NIST는 클라우드 컴퓨팅 초창기부터 본 기술에 관심을 가지고 개입하여 왔으며, 클라우드 컴퓨팅의 확산을 위하여 클라우드 컴퓨팅을 위한 다양한 정의들을 개발하여 왔는데, 다음과 같은 두 가지 주요 방향에서 클라우드 컴퓨팅을 위한 정책적 노력을 추진하고 있는 가운데 있다.

첫째는, SAJACC(Standards Acceleration to Jumpstart Adoption of Cloud Computing)라는 협업적 성격의 기술기관을 창립하여 이를 통하여 공식적인 표준 개발이전에 중간적 성격의 클라우드 컴퓨팅 상세기준을 개발하고 이를 유효 화시키는 동시에 다양한 의사소통 구조를 취할 수 있는 방법들을 개발하고 있다. 이를 위한 주요한 클라우드 컴퓨팅 요구사항으로는 보안성, 이식성(데이터의 이전 가능성), 상호호환성(서로 다른 시스템들을 상호호환적으로 작동하게 하는 것)들을 공식화시키기 위한 노력을 추진하고 있다.

NIST는 이를 위하여 다양한 에이전시와 표준개발 조직과 공동 작업을 결성하여 추진하고 있는데, 기존의 상세내역을 이해하고, 사용자 케이스에 대한 요구사항에 효과적으로 대응할 수 있도록 하는 것으로 구체적으로 사용자가 클라우드 서비스 공급환경에 데이터를 전송하고, 이를 검색하도록 지원하고, 공급업자로부터 제거하기도 하는 방법의 선택을 들 수 있다. 이와 같은 NIST의 접근방법은 클라우드 컴퓨팅 표준에서의 갭들을 인지할 수 있도록 지원하고, 이러한 갭들에 집중할 수 있도록 하는 다양한 방책들을 마련할 수 있도록 지원하고 있는 것이다. SAJACC의 연구진들은 이를 위한 사용자 케이스를 수집하고 공유할 수 있도록 하는 포털을 개발하고 있고, 이를 통하여 상세 사항들과 테스트 결과정보와의 효율적인 공유를 달성할 수 있도록 추진하고 있다.

클라우드 컴퓨팅에 있어서 두 번째 정책적 방향으로는 클라우드상의 정부 데이터에 대한 안전기준을 마련하는 것인데, 특별히 일반시민들의 개인정보들에 대한 보호정책들을 개발하는 것이다. 클라우드 컴퓨팅을 사용하는 기관들은 이를 통하여 NIST가 개발한 연방 정부 안전 관리 조례인 FISMA(Federal Information Security Management Act)를 사용하게 될 것으로 전망된다.

출처 : http://www.sciencedaily.com/releases/2010/06/100609150937.htm

May 28, 2010

SaaS 만의 차별성, 다중 역할(multi-tenancy)에서 출발

IITA 문병주 팀장

SaaS는 소프트웨어 산업의 새로운 흐름을 대변한다. 단순한 사업모델의 변화로 이해하기 보다는 사업모델이 왜 변화하고 있는지, 변화할 수밖에 없는지에 대한 통찰이 더 중요하다. SaaS는 웹 기반으로 운영되며 웹2.0 시대에 웹은 플랫폼임을 주장하고 있다. 웹은 다른 측면에서는 유비쿼터스와 동의어이다. 사람과 객체가 모두 유무선 네트워크를 통해 연결되는 유비쿼터스 환경에서 이루어지는 서비스는 모두 웹 환경에서 구동될 것이다. SaaS는 이러한 거대한 흐름을 반영하는 것이다.

IT 분야를 구성하는 3대 요소를 하드웨어, 소프트웨어, 휴먼웨어라고 할 때 세 가지 요소 모두 서비스화로 명명할 수 있는 변화의 시기를 겪고 있다. 서비스화라는 말에서 알 수 있듯 SaaS(Software as a Service)는 기술의 발전이라기보다는 사업모델의 변화, 혹은 혁신이라는 관점에서 이해해야 하는 키워드다. 하드웨어나 휴먼웨어의 서비스 역시 자원의 이용방식, 사업방식, 과금방식의 변화로서 이해할 수 있다. 일반적으로 소프트웨어 산업의 비즈니스 모델은 라이선스 정책, 판매방법, 파트너 정책에 따라 구분된다. 현재 대부분의 소프트웨어 벤더들은 개인이나 회사가 사용권한을 구매는 라이선스 정책으로 판매를 하고 있다. 판매는 대부분 영업 채널을 통해 CD-ROM 형태로 패키징돼 이뤄진다.

그러나 최근 들어 이런 소프트웨어 비즈니스 모델이 점차 변화하고 있는데, 한 번의 라이선스 구매로 영구히 소장하는 방식에서 서비스에 가입한 후 필요한 때 사용한 만큼 비용을 지불하는(subscription, pay as you go) 방식으로 변화하고 있는 것이다. 이런 서비스로서의 소프트웨어, 혹은 소프트웨어의 서비스화를 따르는 비즈니스 모델을 SaaS라 한다. 기존의 ‘제품 패키지 판매-구축-유지-보수’의 제공형태가 아닌 웹•인터넷을 통해 사용하고자 하는 소프트웨어를 서비스 형태로 제공받는 것을 말한다. 과금은 대부분 사용시간에 따라 결정되지만, 월정액 등 정액방식도 SaaS 개념과 배치되는 것은 아니다.

SaaS는 넓게 보아 ‘온디맨드(On-demand)’ 컴퓨팅의 일종이다. 온디맨드, 혹은 ‘주문형’이라는 용어는 이미 1990년대 중반부터 사용되어 왔다. VOD 등 온디맨드 앞에 서비스의 대상이 무한히 접목될 수 있는 것처럼, ’as a Service’ 앞에 다양한 서비스 객체가 붙어 명명될 수 있다. SaaS 외에도 Haas(Hardware as a Service)라는 말도 가능하며, 인력 아웃소싱은 MaaS(Manpower as a Service)란 표현으로도 규정 가능하다.

최근 IT에서 이슈가 되고 있는 통합(consolidation)은 분산된 자원들을 한 곳에 모두 모아놓고 관리하자는 것인데, 이는 온디맨드 환경과 밀접한 관련이 있다. SaaS 역시 이미 서비스 가능한 모든 소프트웨어 자원을 하나의 풀로 묶는 비즈니스가 시작되고 있다. IT를 구성하는 소프트웨어, 하드웨어, 휴먼웨어 모두 통합의 흐름에서 움직이고 있는데, 이는 IT가 온디맨드 환경으로 전이해 갈 수도 있음을 시사하는 것이다.

SaaS가 등장하게 된 배경은 경제적 측면과 기술적 측면 양쪽에서 찾아볼 수 있다. SaaS 자체가 소프트웨어 사업모델의 변화라는 성격이 강하므로 경제적 측면의 배경이 보다 근원적이라고 할 수 있다. 기존 소프트웨어 사업모델의 경우 사용자는 초기에 적지 않은 금액의 소프트웨어 구매비용을 지불하며, 개인이 아닌 기업의 경우는 구매에서 끝나는 것이 아니라 이후 주기적으로 유지보수를 위해 추가로 비용을 지불해야 했다.

대부분의 경우는 초기 소프트웨어 구매 및 도입 보다 업그레이드 및 유지보수를 위한 비용이 결국은 더 크게 되는 것도 현실이다. 따라서 보다 경제적인 방식으로 소프트웨어를 이용하고자 하는 요구는 항시 있어 왔고, 그에 대한 해결책 중 하나가 온디맨드 방식이다.

온디맨드 방식의 해결책은 이미 제시되었지만 현실화되는 데에는 기술적인 요인의 뒷받침이 필요했다. SaaS가 새삼 주목을 받게 된 데에는 최근 몇 년간의 기술적 발전도 중요한 요인이 되고 있다. 먼저 운영기술이 발전하였다. 점차 저렴해지고 있는 하드웨어와 오픈소스 소프트웨어의 활성화 덕분에 적은 비용으로도 대용량의 서비스를 제공할 수 있게 되었으며 하나의 서비스 플랫폼으로 다양한 요구사항을 만족시킬 수 있는 다중 역할 아키텍처(multi-tenant architecture)의 구성이 가능하게 되었다. 또한 서비스 구현에 있어서도 에이작스(Ajax), 플래시(Flash), 자바 애플릿(Java Applet) 등 RIA(Rich Internet Application) 기술의 발전에 힘입어 웹 클라이언트에서도 데스크탑과 유사한 GUI 환경을 제공할 수 있게 됨으로써 사용자들의 눈높이를 충족하는 서비스의 제공이 비로소 가능해지게 되었다.

이러한 기술의 발전과 확산에는 구글(Google)과 야후(Yahoo!) 등 메이저 포털 사이트의 역할이 컸다고 할 수 있다. 에이작스 등의 기술을 접목해 사용자의 경험 기회를 넓혔고, 오픈소스 소프트웨어 지원과 오픈 API 정책 등을 통해 웹을 사용자 컴퓨팅의 플랫폼(웹 OS)로 자리매김하려는 시도에 경쟁적으로 과감한 투자를 하고 있기 때문이다.

SaaS는 통상적으로 일반 사용자를 대상으로 하는 서비스와 기업 사용자를 대상으로 하는 서비스로 나뉜다. 전자가 웹 2.0이라는 키워드에 포함된다면, 후자는 엔터프라이즈 2.0이라는 키워드로 녹여낼 수 있다. 일반 사용자를 대상으로 하는 SaaS로는 구글의 서비스가 대표적이며, 기업 사용자를 대상으로 하는 SaaS는 기업 내의 필수적인 비즈니스 시스템, 가령 CRM이나 ERP 등을 외부 서비스 형태로 사용하는 것으로 세일즈포스닷컴(Salesforce.com)이 대표적이다. SaaS 애플리케이션의 기술적인 특징으로는 크게 네 가지를 들 수 있다.

․ 다중 역할(Multi-tenancy) : 단일 코드셋, 애플리케이션과 데이터의 파티셔닝, 공통의 애플리케이션 서비스, 코드 수정 없는 커스터마이징
․ 확장성 : 대규모 사용자 수용, 대용량 트랜잭션 처리, 대용량 데이터 볼륨
․ 보안성 : ID 기반, 애플리케이션 기반, 역할 기반 보안, 물리적 보안, 하나의 인스턴스 리소스 공유
․ 용이한 환경설정

이 중 확장성, 용이한 환경설정, 보안성 등은 모든 소프트웨어 이용환경에서 필요조건이 되는 것이며, SaaS 만의 차별성을 나타내 주는 것은 다중 역할(multi-tenancy)이다. SaaS와 개념적으로 흡사한 ASP의 경우도 가입자별로 솔루션이 할당되어 운영되지만, SaaS는 단일한 솔루션이 여러 가입자 사이에 공유되어 자원의 효율적 활용을 도모한다.

아키텍처 관점에서 SaaS 애플리케이션의 가장 큰 특징인 ’싱글 인스턴스 멀티 태넌시(single-instance multi-tenancy)’, 즉 한 애플리케이션의 동일한 인스턴스로부터 다양한 사용자의 요구를 만족시키는 서비스를 제공하기 위해서는 애플리케이션의 각 계층(tier) 설계가 매우 중요하다.
SaaS 애플리케이션이 3-티어, 가령 표현계층(presentation tier), 비즈니스 로직계층(business tier), 데이터계층(data tier)의 아키텍처로 구현될 경우, 싱글 인스턴스 멀티 태넌시를 제공하기 위해서는 애플리케이션의 각 계층마다 해당 사용자에 맞게 환경설정을 해야 하는데, 이를 위해서는 메타데이터 아키텍처가 필요하다. 로그인한 사용자의 메타데이터 정보에 근거해 사용자에게 고유한 애플리케이션처럼 구동할 수 있게 된다.

세일즈포스닷컴의 예에서 알 수 있듯 SaaS 서비스 제공업체들은 마이크로소프트와의 차별성 부각을 통해 SaaS의 강점을 어필한다. 미디어들은 SaaS 등의 개방형 기술과 마이크로소프트의 독점적, 폐쇄적 기술방식 간의 경쟁에 대해 주목하고 있다. 마이크로소프트는 SaaS에 대한 대응전략으로 ’S+S’라는 용어를 사용하고 있는데, S+S를 SaaS를 포괄하는 상위 개념, 혹은 2세대 SaaS로 설명하고 있다. S+S는 소프트웨어+서비스를 의미하는데, 핵심개념은 통합이다.

SaaS는 그 개념상 2000년 초에 국내에서 큰 관심을 모았지만 큰 반향을 얻지 못했던 ASP와 유사하다. SaaS는 ASP의 한 형태로, 넓은 의미의 ASP로 이해되기도 한다. ASP 사업자는 보통 3가지로 구분된다. 첫 번째는 ASP 어그리게이터로 데이터센터와 네트워크 등 인프라를 모두 보유하고 있으며, 필요한 솔루션들을 모아 그 인프라 위에 탑재해 서비스하는 사업모델이다. 국내 KT에서 운영하는 ’비즈메카’가 대표적이다.

두 번째는 순수 ASP 업체로 대개 데이터 센터는 임대하고, 경쟁력 있는 소프트웨어와 하드웨어를 구매한 뒤, 컨설팅을 얹어 고객사에 판매하는 사업모델을 따르고 있다. 소프트웨어와 하드웨어를 구매하기 때문에 초기 시설 투자비가 많이 든다는 단점이 있다.

세 번째가 SaaS를 표방하고 나선 업체들로 광의의 ASP 업체로 볼 수 있으며, 출발부터 서비스를 염두에 두고 제품을 설계하고 운영을 준비한다.
SaaS와 ASP를 비교할 때 흔히 호텔과 단독빌라촌의 비유를 든다. SaaS는 호텔로 고객은 자신이 원하는 등급, 원하는 시설의 호텔에 투숙하기만 하면 된다. 이에 비해 ASP는 수많은 단독 빌라촌을 관리해주는 것이다. 각 고객마다 별도의 집이 있다. 이 때문에 고객에 필요한 시설과 서비스가 별도로 제공돼야 한다. SaaS는 동일한 하드웨어 박스에 나눠서 입주하지만 ASP는 고객사마다 별도의 하드웨어에 서비스를 얹어야 한다는 차이점이 있다.

SaaS의 주요 적용 분야는 포털사이트 등에서 제공하는 웹메일, CRM(고객관계관리), 대표적인 데스크탑 애플리케이션인 오피스를 웹상에서 제공하는 웹오피스 등이 있으며, 이 밖에도 보안서비스, BI, BPM 등 비즈니스 애플리케이션 전반에 걸쳐 SaaS 적용 흐름이 나타나고 있다. 구글과 마이크로소프트, 오라클 등 주요 업체들은 이들 SaaS 서비스를 패키지화해서 기업 시장을 적극 공략하고 있다. 최근에는 기업 IT 환경에 SaaS 등을 접목하는 이러한 흐름을 최근 ‘엔터프라이즈2.0’이란 용어로 표현하고 있다.

SaaS는 소프트웨어 산업의 새로운 흐름을 대변한다. 단순한 사업모델의 변화로 이해하기 보다는 사업모델이 왜 변화하고 있는지, 변화할 수밖에 없는지에 대한 통찰이 더 중요하다. SaaS는 웹 기반으로 운영되며 웹2.0 시대에 웹은 플랫폼임을 주장하고 있다. 웹은 다른 측면에서는 유비쿼터스와 동의어이다. 사람과 객체가 모두 유무선 네트워크를 통해 연결되는 유비쿼터스 환경에서 이루어지는 서비스는 모두 웹 환경에서 구동될 것이다. SaaS는 이러한 거대한 흐름을 반영하는 것이다.

May 5, 2010

'VMware View4' 발표기념 기자간담회

2009.11.10. 22:44

VMware는 서울 그랜드인터컨티넨탈 호텔에서 기자간담회를 열고, 가상 데스크톱을 통해 관리 서비스 모델을 구축 가능한 새로운 가상화 관리 솔루션인 ‘VMware View 4.0’을 소개했다. 이 솔루션은 ‘데스크톱’의 가상화 솔루션으로, 주로 중소 기업 정도의 규모를 가진 고객을 대상으로 하고 있으며, 데스크톱 가상화의 장애요소를 크게 완화했다.

최근 기업 환경에서 가상화와, 중앙 집중화된 가상화 환경인 '클라우드 컴퓨팅' 은 이제 일부 업종에만 제한적으로 도입되던 시기를 지나, 다양한 업종에서 기업들의 구축 사례가 늘고 있다. 또한 IDC는 전세계 주요 기업의 74%가 데스크톱 가상화를 고려하고 있다는 결과를 내 놓기도 했다. 이는 가상화가 실제로 기업의 업무에 활용될 단계에 이르렀음을 보여준다.

이 솔루션은 강화된 VMware의 V스피어(vSphare)를 기반으로 해 중앙 집중화된 데스크톱 가상화를 구현하고, 이를 네트워크를 통한 ‘서비스’ 모델로 사용 가능하게 해 준다. 이를 통해 운영 비용의 절감, 보안성의 강화, 컴퓨팅 기기와 사용자 모델, 네트워크 연결까지 아우르는 가상 데스크톱 환경을 구축하고 IT 컴플라이언스와 관리 용이성을 제공한다.

또한 일반 기업에서의 가상화 환경의 구축에 큰 장애로 작용하던 비용 부담과 사용자 경험 부재라는 측면을 완화시켰다. 네트워크를 통한 가상화 환경의 스트리밍에서 가장 문제가 되던 화면 움직임의 문제는 새로운 프로토콜인 'PCoIP'를 사용해 해결했으며, 기업에서 새로운 PC의 도입과 비교해 비용 면에서도 우위에 있음을 강조했다.

VMware View 4에 대한 자세한 설명은 VMware 코리아의 선임기술컨설턴트 이 효 부장이 진행했다. 이 부장은 먼저 "3년 전 기업용 가상화 솔루션을 처음 출시했을 때 초기 도입은 금융, 헬스케어, 정부기관에서 주로 적용해 왔지만 이제는 이 시장이 얼리어댑터를 지나 성숙하는 시장으로 들어왔다"고 말을 꺼냈다.

현재 데스크톱 가상화 시장은 '얼리 어댑터' 수준을 넘어서기 시작했다. 그 이유는 기업들이 기존 PC 환경에 대한 보안성, 관리성 등에서 한계를 느끼고 있기 때문이라는 것이다. 이를 극복하기 위해 각종 원격 관리 기술과 보안 기술들이 적용되고 있지만, 기업이 원하는 정도의 수준에 이르기에는 여러 가지로 부족한 점이 있는 게 사실이다.

물론 데스크톱 가상화 환경이 가진 한계도 있으며, 이런 한계는 보급의 장애요인으로 작용했다. 그리고 가장 큰 요인으로는 ‘획득 비용’, ‘사용자 경험’ 이 꼽혔다. 하지만 VMware는 새로운 솔루션에서 이런 한계를 기술의 발전으로 해결했으며, 이제 가상화 환경은 대부분의 기업에서 업무용으로 쓰는 데 무리 없는 수준으로 발전했다고 강조했다.

▲ 사용자의 요구사항은 크게 네 가지 영역으로 구분.


최근 기업 사용자들의 요구사항은 다양성과 비즈니스의 역동성으로 요약된다. 그리고 이를 만족시키면서 데스크톱 PC를 가상화하여 대체하기 위해서는 업무 환경에 대응 가능한 유연함, 디바이스, 각종 어플리케이션의 호환성과 보안 문제, 사용자 경험과 예산 문제 등을 충족시킬 수 있어야 한다고 제시되었다.

VMware는 이를 만족시키기 위해 '사용자 중심' 중앙 컴퓨팅 환경을 제시했다. 이는 기존의 환경이 디바이스 별로 완전히 '독립된' 구성인 데 반해, 데스크톱 환경의 가상화를 통해 어디서나 동일한 환경을 사용할 수 있다는 개념이다. 이를 사용해 표준화된 정책을 적용하고, 계정 정보를 기반으로 하드웨어 독립적인 환경을 사용하여 작업을 수행할 수 있게 된다.

이런 중앙 컴퓨팅 환경의 구성 조건에는 세 가지가 있다. 먼저 디바이스의 특성에 따른 '플랫폼' 적 요소가 있으며, 가상 환경의 이미지, 어플리케이션, 데스크톱 할당, 플랫폼 등의 '관리' 요소가 있다. 그리고 사용자의 체감적 환경인 '사용자 환경' 요소가 있는데, 여기에는 디스플레이, 멀티미디어, 협업 환경, 주변장치 지원 등의 요소가 있다.

▲ VMware View 4의 특징은 크게 네 가지.

VMware View 4의 특징은 크게 네 가지로 요약된다. 먼저 새로운 프로토콜 'PCoIP'를 적용해 사용자 체감 환경을 높이고 네트워크 최적화를 이루었다. 그리고 가상화 환경을 담는 ‘바구니’ 인 플랫폼인 vSphere 4의 기능을 강화했다. 또한 중앙 집중에서의 관리 기능을 강화하여 간소화된 관리를 제공하며, 높은 통합 비율을 통해 비용적인 문제까지 최적화했다고 밝혔다.

이 중 가장 두드러진 특징은 데스크톱 가상화 환경을 위해 새로 만들어진 프로토콜인 'PCoIP'다. 이 프로토콜은 데스크톱 가상화를 위해 특별히 개발된 디스플레이 프로토콜로 기존의 RDP 등에 비해 체감 성능을 끌어올렸다. 기존에 사용되던 각종 프로토콜들은 가상화 환경을 크게 고려하지 않았으며, '관리'를 위한 목적이 강했지만 PCoIP는 데스크톱 가상화 환경의 전송에 최적화된 디자인을 하고 있다.

또한 LAN과 WAN 환경 모두에 대응되며 네트워크 환경을 자동적으로 감지하여 자동적으로 최적화하는 기능이 있어 디스플레이 퀄리티를 높이면서 WAN 환경을 위해 별도의 가속기 등을 사용할 필요가 없다는 것도 장점이다. 그래픽 중심의 어플리케이션에 대한, 특별한 환경에서의 선택적 하드웨어 가속화도 가능해 현존 대부분의 데스크톱을 가상화해 제공할 수 있게 되었다.

▲ PCoIP 는 데스크톱 중앙화 중심의 '호스트 렌더링' 기술.

기존의 데스크톱 가상화 환경에서는 구축 상황에 많은 제약이 있었다. 기존 프로토콜들이 태생이 '관리' 목적이다 보니 네트워크 대역폭 등에 큰 관심을 두지 않은 덕분이다. 덕분에 지금까지의 가상화 솔루션들은 네트워크로 전송되는 화면의 체감 성능을 해결하기 위해 일반적으로 화상 압축 혹은 버추얼 채널을 사용해 움직임 예측 데이터를 전송하는 방법을 사용했다.

화상 압축 기술을 사용할 경우엔 네트워크 대역폭을 줄일 수 있지만, 품질이 문제되는 상황이 온다. 그리고 버추얼 채널을 사용할 경우에도 제약 사항이 있는데, 클라이언트 측에서 서버 쪽이 보내는 데이터 알고리즘에 대한 '코덱' 이 준비되어 있어야 한다는 것이다. 이 방식의 문제는 네트워크 대역폭 문제와 함께, 앞으로 프로그램들이 바뀌어 갈 경우 이에 얼마나 빨리 대응할 수 있을지에 대한 것이다.

향후 데스크톱 가상화 환경은 사용하는 네트워크 대역폭의 증가와 빠른 응답 환경이 요구될 것으로 예상된다. 이는 기존 PC 수준의 사용자 체감 환경을 제공할 필요가 있기 때문이다. 또한 점점 비주얼적 요소가 높아지는 차세대 OS에 제대로 대응할 필요도 있다. 더불어 관리자와 사용자를 위한 편의성을 함께 제공할 수 있어야 하는 등 많은 요구사항을 안고 있다.

PCoIP는 이런 다양한 고민들을 해결하기 위한 방법이다. UDP 기반한 방식에 '프로그레시브 빌드(Progressive Build )' 방식의 호스트 렌더링을 사용하고 압축과 암호화 방식 등 다양한 기술을 사용해 사용하는 대역폭과 네트워크의 오버헤드를 줄이며, 향후 소프트웨어 환경의 변화에 호환성 문제가 없이 독립적인 특징을 가지고 있다. 또한 '프로그레시브 빌드' 덕분에 네트워크 상황과 화면 움직임에 맞춰 움직임을 최적화 가능하며, '플랫폼 독립적' 인 면도 가지고 있다.

▲ 최대 4개의 Full HD 모니터 환경을 제공한다.


▲ PCoIP의 궁극적 구현은 소프트웨어와 하드웨어의 조합.


프로그레시브 빌드는 화상이나 영상에서의 프로그레시브 동작 방식과 유사하다. 네트워크 대역폭에 따라 저해상도부터 고해상도까지 단계별 화상을 전송해 완성하는 형태이며, 사용자 입장에서의 품질 저하를 최소화하기 위해 저해상도 상황에서도 텍스트 정보에는 고해상도가 적용된다. 이는 '화면 그대로를 렌더링해서 전송' 하기 때문에 가능한 선택이라고 덧붙였다.

또한 VMware View 4에서는 최대 4개의 가상 모니터를 지원한다. 각각의 모니터는 1920*1200 해상도까지 지원되며, 클리어타입 폰트와 피봇 기능 등이 지원된다. 더불어 정해진 규격의 해상도가 아니라 모니터에 따른 가변 해상도가 지원되어, 어느 환경에서든지 유연하게 사용이 가능하다는 장점을 가진다.

PcoIP 구현은 소프트웨어, 하드웨어 방식 두 가지로 나뉜다. 이번에 발표된 View 4는 소프트웨어 방식 지원이고, 이 프로토콜이 내장된 하드웨어 방식 칩셋을 장착하여 사용할 수도 있다. 하드웨어 칩셋은 고성능이 필요한 경우 선택할 수 있으며, 향후엔 '하드웨어 어시스턴트'를 사용하는 방식으로 진화할 것이라고 제시했다.

또한 '오프라인' 환경에서도 사용이 가능하다는 것이 소개되었다. 기존의 데스크톱 가상화 솔루션은 ‘중앙으로 접속하는’ 환경을 전제로 하고 있어서 네트워크의 사용 여부가 데스크톱 가상화 환경의 필수 요소였다. 하지만 VMware는 메인 서버의 가상화 이미지를 다운로드 받아 로컬에서 작업이 가능하게 했으며, 여기서 작업한 결과는 네트워크에 연결되었을 때 파일 동기화로 서버에 반영된다고 소개했다. 이를 통해 온, 오프라인을 연계하는 가상화 환경도 구축 가능하게 된다.

▲ 기반이 되는 vSphere 4도 기능이 강화.

VMware View 4의 기반이 되는 vSphere 4의 기능도 기존에 비해 강화되었다. 먼저 기존 솔루션 대비 가상 머신 통합 비율이 40% 가량 향상되었으며, 분산 가상 스위치 기능 지원, 호스트 프로파일 기능 지원, 고가용성과 무결성 환경 구성 지원 등 데스크톱 가상화를 위한 기능들이 추가되거나 강화되었다. 또한 기존의 vSphere가 가진 주요 기능들이 그대로 반영되어 있다.

확장성 면에서는 가상 머신의 통합 비율이 기존보다 40% 가량 올라갔다. 이는 가상 머신의 메모리 오버커밋 기능과 통합 서버당 가상 머신의 워크로드 분산 기능이 적용되어 가상 머신이 서버에 주는 부담이 줄어든 덕분이다. 일반적으로 최근의 네할렘 아키텍처 기반 서버는 프로세서 코어당 9~12개 정도의 가상 데스크톱을 동시 구성 가능하다고 제시되었다.

가용성 면에서는 동시 가상 데스크톱의 부팅 속도가 개선되었으며, 가상 데스크톱에 대한 VMotion, VMware FT, VMware FT 기능이 제공된다. VMotion은 가동 중인 가상 데스크톱을 서비스 중단 없이 다른 서버로 이동 가능하게 해 주는 온라인 핫마이그레이션 서비스로, 가상 데스크톱들에 대한 무중단 유지보수가 가능하게 해 준다.

VMware HA(High Availability)는 특정 서버나 가상 데스크톱 머신에 장애가 발생될 경우 다른 서버에서 자동적으로 재구동하여 일부 구성 요소나 전체 시스템의 장애로부터 서비스 가용성을 유지할 수 있는 방법을 제시한다. 또한 VMware FT(Fault Tolerance)는 단일 가상 머신에 대한 항등 VM을 다른 통합 서버 위에 구성하여 동기화시키고 장애 발생시 이를 대체하는 방식으로 무중단 환경을 제공한다.

▲ 간소화된 관리를 위한 '호스트 프로파일' 기능.

간소화된 관리를 위해서는 호스트 프로파일 기능과 vSphere의 바이러스 백신 솔루션 연동 기능인 VMSafe 기능 등이 소개되었다. 호스트 프로파일 기능은 각종 설정을 프로파일을 통해 한 번에 전체 클러스터에 적용할 수 있는 기능으로, 표준화된 템플릿을 통해 관리에 들어가는 시간과 노력을 줄이고 일관된 정책과 허가 방침을 준수할 수 있게 해 주는 기능이다.

vSphere의 바이러스 백신 솔루션 연동 기능인 VMSafe 기능은, 가상화 인프라 단에서 보안 솔루션을 구동하여 인프라 위의 모든 가상 머신에 동시에 보안 기능을 제공하는 기능이다. 이는 VMSafe의 라이브러리 위에서 인프라와 연동되며, 보안 관련 업체들과의 협력을 통해 구현되었다. 이를 통해 보안 정책과 유지, 보수 작업에 들어가는 수고를 줄일 수 있으며 라이센스 비용도 절감할 수 있다고 소개되었다.

사용자의 편의성을 위해 가상 데스크톱의 로그인 절차도 간소화되었다. 지금까지는 가상 데스크톱의 접속을 위해 여러 단계에서의 인증 절차가 필요했지만, VMware View 4에서는 한 번의 사용자 승인 절차로 자동적으로 접속할 수 있도록 제공된다. 또한 스마트 카드 등의 방법과 다중 접속 방지 기능도 제공되어 편의성과 보안성의 절충점을 제시한다.

또한 사용자들이 데스크톱 가상화 풀을 커넥션 서버 기반으로 직접 접속할 수 있게 지원한다. 이 경우 모든 사용자들은 방화벽 안에서 모든 가상 데스크톱에 접근할 수 있지만, 특정 가상 데스크톱에 대해서는 방화벽 밖에서 접근이 불가능하게 할 수 있다. 이는 가상 데스크톱을 '그룹'화 하여 정책을 적용하는 것이며 커넥션 서버를 다른 네트워크에 구성하여 망 이중화 구성도 가능하다.

▲ 스토리지 구조의 최적화로 효율을 끌어올렸다.

VMware View 4에서는 템플릿을 이용한 자동 프로비저닝 기능이 제공되어 사용자의 요청에 의한 가상 서버의 생성을 정의된 템플릿을 사용해 바로 구성해 사용할 수 있다. 또한 이 단계에서 그룹 단위의 정책을 수립해 실무에 적용할 수 있으며, 사용 환경에 맞는 다양한 데스크톱 타입이 제공된다.

가상화 환경에서 사용하는 스토리지에 대한 최적화도 이루어졌다. 기존에는 가상 환경마다 모두 별도의 스토리지 파일을 가지고, 개별적으로 운영 체제와 어플리케이션을 가지고 있는 구조로 데이터 중복 문제가 심각했었다. 이는 특히 템플릿을 이용한 자동 프로비저닝 기능을 사용할 경우 더 심각하게 나타나는 문제이기도 했다.

VMware View 4에서는 이 문제를 View Composer를 사용해 해결했다. 템플릿을 이용한 프로비저닝의 경우 몇 가지 템플릿의 '마스터 이미지'와 사용자 개인의 스토리지 공간을 가상화 결합해서 제공하여 기존에 중복된 운영체제와 어플리케이션 데이터들이 사용하던 공간을 제거한 것이다. 이를 통해 스토리지 사용량과 구매 비용을 70% 까지 줄일 수 있다고 제시했다. 또한 관리 측면에서도 마스터 이미지 작업만으로 일괄 변경 사항 적용이 가능해 더 편리하다.

▲ 총소유비용 측면에서는 기존 PC에 비해 확실히 우위.

비용적인 측면에서는 데스크톱 가상화를 사용할 경우 기존 PC 환경에 비해 대당 연간 610 달러 가량을 절약할 수 있는 것으로 나타났다. 현재의 업무용 PC 가격이 새로 도입할 때 대당 약 800달러 수준이며, 여기에 각종 관리적인 요소 등을 생각할 때 총 소유비용은 순식간에 대당 1300 달러 수준까지 치솟는다. 하지만 가상 데스크톱 환경을 사용할 경우는 1000달러 미만의 비용으로 가능하다고 제시되었다.

이런 절감이 가능한 이유는 크게 세 가지가 제시되었다. 먼저 vSphere의 집적도가 올라가서 서버 도입 비용을 줄일 수 있다는 것, 그리고 PC에 비해 가상화 환경을 위한 저렴한 '씬 클라이언트' 를 사용할 수 있다는 것이다. 또한 유지, 관리 비용적인 측면과 함께 강한 에코시스템 파트너쉽과 솔루션들이 꼽혔다.

VMware View 4의 라이센스 비용은 엔터프라이즈 에디션이 대당 150 달러, 프리미엄 에디션이 250달러 수준이라고 알려졌다. 그리고 라이센스 기준은 총 사용 수가 아니라 '동시 사용자 수'로 책정되어 경쟁사 대비 실질적 도입 시 저렴하다는 것도 제시되었다. 또한 클라이언트가 플랫폼 독립적인 특성을 지니는 덕분에 클라이언트의 OS 비용까지도 오픈소스로 대체하여 줄일 수 있으며, 기존 PC들을 교체하는 대신 씬 클라이언트화 하는 사례도 있다고 덧붙였다.

Mar 14, 2010

Cloud Computing

Cloud ComputingFrom Korea Architecture Journal

1 요약
2 서문
3 산업 활용 시나리오
4 아키텍처
5 사업자 별 클라우드 사업 전략 비교 분석
6 클라우드 플랫폼의 산업적 가치와 활용 전략
7 맺음말
8 참고문헌

요약
클라우드 컴퓨팅 기술은 다수의 컴퓨터를 연동하여 실현할 수 있는 다양한 산업적 해법을 아울러 일컫는 말로, 사업자 별로 주요한 사업 전략의 차이에 따라 개념, 기술, 제품 따위에 적지 않은 차이가 있다. 따라서, 클라우드 컴퓨팅을 바탕으로 하여 명확한 사업 전략을 수립하고 효과적 기술 투자를 시행하기 위해서는, 편향된 해석에서 빚어질 수 있는 오판의 가능성을 줄일 수 있도록, 현 소프트웨어 산업에 미치는 생태계적 효과를 면밀히 살피는 것에서부터 클라우드 컴퓨팅의 출현이 갖는 본질적 의미가 사업 전략의 밑바탕에 충실하게 반영되었는지를 살피는 일을 앞세울 필요가 있다. 이 글에서는 실제 활용 가치를 중심으로 클라우드 컴퓨팅 기술의 의미를 살펴봄으로써 연관 산업의 건전한 생태계 형성을 위하여 어떤 전략적 투자가 효과적인지를 제언한다. 첫째, 일반화 가능한 산업 활용 시나리오를 단계별로 살펴보고, 이로부터 클라우드 컴퓨팅 기술이 갖추어야 할 필수 서비스 요소가 무엇인지를 정의한다. 둘째, 이를 바탕으로 현재 세계 주요 클라우드 컴퓨팅 사업자들이 어떠한 산업 시나리오에 초점을 맞추고 있는지 주요 사업자 별로 전략의 차이를 살핀다. 셋째, 주요 사업자들의 클라우드 컴퓨팅 기술이 국내 시장 동력에 기여할 수 있는 활용 시나리오를 제안한다. 마지막으로 이러한 방안을 현실화하는데 일어날 수 있는 잠재적 장애 요소를 확인하면서 클라우드 컴퓨팅을 바탕으로 한 시장 활성화를 위해 선결해야 할 과제가 무엇인지를 논한다.

글쓴이
김재우, 플랫폼 전략 자문
장현춘, 솔루션 아키텍트
신현석, 인프라 아키텍트

서문
일반적으로, 개별 개념의 모호한 연관성을 융합하여 하나의 기술적 추세를 나타내는 용어가 등장하게 되면, 오래 동안 산업에서 여러 가지 시행 착오를 거치며 또렷한 시장 가치를 드러낼 때 까지 소수의 선도 집단을 중심으로 소규모 간헐적 실험 투자가 이어지는 것이 보통이다. 그 가운데 상당수는 실제 시장을 형성하지도 못한 채 사라지며, 일부는 이후 새로운 산업적 추세에 포함되거나 새로운 이름으로 재 포장되어 시장에 등장하게 되기까지 오랜 기간 성장을 멈춘 채 동면 상태에 들어감으로써 일시적으로 시장 동력으로써 가치를 상실하고 선도적 투자에 따른 효과를 입증하기가 어렵게 만든다. 따라서 새로운 기술 또는 산업 추세에 발맞추어 시장 경쟁력을 유지하기 위한 효과적 투자 전략을 세우기 위해서는, 무엇보다 현 시장의 성숙도를 올바로 분석하고 장기적 안목에서 근본적인 시장성을 본질적으로 고찰하는 작업이 반드시 앞서야 한다, 이러한 관점에서 보더라도, 클라우드 컴퓨팅은 단순히 또 다른 용어의 유희에 불과한 것인지, 정확히 현 산업의 추세를 총합적으로 반영하는 대세인지 판단하기 어려울 만치 혼란을 야기할 소지를 적잖이 안고 있다. 클라우드 컴퓨팅(Cloud Computing)이란 용어 자체가 [[SaaS|SaaS(Software-as-a-Service)], 유틸리티 컴퓨팅(Utility Computing), 그리드 컴퓨팅(Grid Computing), 분산 처리(Distributed Computing), 가상화(Virtualization), 서비스 중심 아키텍처(Service-Oriented Architecture), 고성능 컴퓨팅(High-Performance Computing) 따위, 기존 다수의 서버를 연동하여 실현할 수 있는 다양한 기술 개념을 아울러 통칭하는 용어로 등장하였기 때문에, 지금까지 그 어떤 유행어보다도 뜻하는 바가 포괄적이며, 그에 따라 기술 집단이나 사업자 별로 각자의 관심사나 이해 관계에 맞추어 수많은 자의적 해석이 가능하다.

실제로, 마이크로소프트를 위시하여, 클라우드 컴퓨팅이라는 낱말을 두고 저마다 시장을 선도한다는 글로벌 사업자들의 관련 제품들을 면면히 살펴보면, 자사가 초점을 맞추고 있는 주요 사업 전략의 차이에 따라 가치 해석, 적용 기술, 제품군 따위에 근본적으로 현격한 차이가 있다. 예를 들어, 하드웨어 수익이 우선시되는 회사가 말하는 클라우드 컴퓨팅은 기존 기업 내부의 서비스 지향 인프라스트럭처(Service-Oriented Infrastructure)를 가상화(Virtualization) 기술을 기반으로 재구성하여 계산 환경의 효율성과 관리의 자동화 수준을 끌어올리는 데 초점을 맞추고 있다. 이 때, 클라우드 컴퓨팅이란 서비스 생명 주기 관리(Service Lifecycle Management) 기술이 탑재된 대형 가상화 그리드(Massive Virtualization Grid) 구축을 일컫는 말이다. 비슷하게, 자체 데이터 센터를 보유한 사업자들은 서버 가상화를 통해, 기 투자 시설의 활용도를 최대한으로 끌어올리는 데 우선적인 관심이 있다. 이런 경우, 서비스 생명 주기 관리 기술은 불필요한 투자일 가능성이 짙다. 서비스 생명 주기 관리 기술은, 모든 서버를 좀 더 추상화된 서비스 운영 환경으로 통합함으로써 기존 소프트웨어의 아키텍처 변경을 불가피하게 만들고, 더욱이 최종 소비자에게 운영체제 선택권을 주지 않는 다는 면에서 오히려 지나친 기술 투자가 사업성을 떨어뜨릴 수 있기 때문이다. 이와 달리, 웹을 중심으로 서비스 사업을 펼치고 있던 사업자들은, 인프라스트럭처의 활용도나 관리 용이성을 개선하기 보다는, 기존 완성형 서비스(Finished Service)를 플랫폼 서비스(PaaS, Platform-as-a-Service) 수준으로 끌어올리면서 산업 생태계 활성화를 통해 사업 확장을 꾀할 목적으로, 클라우드 컴퓨팅이란 용어를 차용하는 경우가 대부분이다. 다시 말해, 이 경우에 클라우드 컴퓨팅이란 용어는, 기존 SaaS 사업을 PaaS 형태로 확장하면서, 자사가 안전하고 충분한 서비스 신축성(Scalability)을 확보하고 있다는 자신감을 드러내는 용도로 활용된다. 이 가운데서도, 수많은 개별 사용자들을 대상으로 하던 서비스의 경우에는, 한 사람 또는 여러 사람들이 소유하고 있는 블로그, 메일, 네트웍 저장소, 그리고 다양한 단말 장치 내의 멀티미디어 자료나 응용 소프트웨어를 공유하고, 검색하고, 동기화하는 따위의 기능을 제공하면서, 사실상 장치간 네트워크(Device Network or Device Mesh), 사람간 네트워크(Social Network, Social Mesh), 통합 메시지 및 미디어(Converged Media) 따위를 통합 서비스 할 수 있는 기술 기반, 이른바 피어 투 피어 네트워크(peer-to-peer network) 서비스를 플랫폼 수준으로 더 발전시킨 형태를 지칭하기 위한 용도로 쓰이고 있다.

따라서, 위에서 간단히 살펴본 바와 같이, 특정 집단의 해석에 휘둘리지 않고, 명확한 사업 전략 수립과 효과적 기술 투자를 시행하기 위해서는, 개별 집단의 이해 관계에 따른 편향적 논의를 벗어나, 큰 눈으로 현 산업에 미치는 생태계적 효과를 면밀히 살피는 것이 우선이다. 본고에서는 시장 활성화 관점에서 실제 활용 가치를 중심으로 클라우드 컴퓨팅 기술이 의의를 논하고 연관 산업의 건전한 생태계 형성을 위하여 어떤 전략적 투자가 바람직한지를 제언한다. 첫째, 일반화 가능한 산업 활용 시나리오를 단계별로 살펴보고, 이로부터 클라우드 컴퓨팅 기술이 갖추어야 할 필수 서비스 요소가 무엇인지를 정의한다. 둘째, 이를 바탕으로 현재 세계 주요 클라우드 컴퓨팅 사업자들이 어떠한 산업 시나리오에 초점을 맞추고 있는지, 곧 사업자 별 전략 차이를 살핀다. 셋째, 주요 사업자들의 클라우드 컴퓨팅 기술이 국내 시장 동력에 기여할 수 있도록 활용할 수 있는 시나리오를 제안한다. 마지막으로 이러한 방안을 현실화하는데 일어날 수 있는 잠재적 장애 요소를 확인하면서 클라우드 컴퓨팅을 바탕으로 한 시장 활성화를 위해 선결해야 할 과제가 무엇인지를 논한다.

산업 활용 시나리오
기업의 비즈니스와 클라우드 컴퓨팅이 어떤 연관이 있는지를 살펴보는 것을 통해 클라우드 컴퓨팅이 갖는 기술적인 요소를 찾아보고 이를 지원하기 위한 서비스 업체들의 제공되는 기능들을 살펴보기로 하자.

대부분의 기업이 그러하듯 오늘날의 복잡하고 급변하는 비즈니스 환경에 적응하고 살아남기 위해, 신제품이나 서비스의 빠른 시장 대응 능력(Time-to-Market)을 실현하고 까다로와진 고객의 욕구를 수용하기 위한 다양한 실험과 연구를 수행하고 있으며, 이러한 연구의 과정에는 때로 전산센터의 대규모 연산 능력을 필요로 한다고 가정하자.

위 그림은 클라우드 컴퓨팅을 도입하지 않았을 경우 기업내 업무 흐름을 보여준다. 그림에서 보듯이 이 기업 내부에는 디렉토리 서비스 기반의 인층 체계가 마련되어 있어 내부 직원들이 이를 통해 기업내의 다양한 업무 시스템을 사용하고 있으며, 이들이 사용하는 업무 시스템들은 기업 내의 IT 부서 직원들이 자사에 특화된 모니터링 도구를 통해 시스템을 관리하는 것이 대부분이다. 여기서는 일반화할 수 있는 논의의 간결성을 위하여, 고객관리를 위한 시스템(CRM), 신제품 개발을 위해 대규모 테스트를 진행하는 연구 개발용 시스템, 그리고 이 기업의 대표적인 제품이자 시장에서 경쟁력을 갖춘 제품 개발을 위한 임상 실험 시스템이 있다고 가정한다.

오랫동안 이 기업은 신제품 개발을 위해 연구 개발 부서(R&D) 에서 필요로하는 대규모 연산 능력을 자체 IT 리소스 의존하였는데, 기업 비즈니스 환경의 변화와 맞물려 IT 자산의 합리화라는 도전에 직면하게 되고 이를 극복하기 위해 새롭게 클라우드 컴퓨팅을 접목시키기로 하였다. 가끔 필요로하는 대규모 연산 능력을 갖추기위해 자사 IT 인력을 투입하여 대규모 전산 센터를 운영하는 비효율성에서 벗어나 필요한 시점에 클라우드 컴퓨팅의 연산 능력과 저장 공간을 활용하여 비용 절감 및 IT 합리화를 도모하고 있다. 그림 2에서 보듯이 이때 필요한 기술적인 고려 요소가 있다. 인증 체계의 통합이 그것이다. 기업내의 인증 체계는 자사 IT 부서가 관장하는 디렉토리 서비스에 의존하고 있으나, 기업을 벗어나는 순간 또 다른 인증체계가 기다리고 있다. 따라서 기업 내의 인증체계와 기업 밖 클라우드 서비스가 사용하는 인증체계와의 통합이 필요하며 이때 사용될 수 있는 것이 공개표준 혹은 산업표준으로 통용되는 인증체계를 이용하는 것이며, 여기서는 리버티 얼라이언스(Liberty Alliance)에서 마련한 SAML 이라는 공개 표준을 따르고 있다. 이를 위해 기업 내부에는 SAML 토큰을 발행할 수 있는 토큰 서비스 (STS : Secure Token Service)가 존재하여야 하는데, 일반적인 경우 디렉토리 서비스가 이 기능을 함께 제공하며 이를 통해 기업 밖의 인증 시스템과는 SAML이라는 공통된 인증 체계를 통해 소통을 할 수 있게 된다.

기업내의 시스템 통합을 위해 ESB (Enterprise Service Bus)가 있다면, 기업간 서비스의 통합을 위해 ISB (Internet Service Bus)가 있으며, 클라우드 플랫폼에서 서비스로서 ISB를 제공하고 있다. ISB는 서비스 버스로서 기업간 서비스 통합시에 발생할 수 있는 다양한 이슈에 대한 빌딩 블록 형태의 서비스를 제공하고 있다. 그 중 대표적인 것이 바로 통합 인증을 가능케하는 토큰 서비스와 서비스간 통합을 쉽게 하는 서비스 릴레이 기능, 워크 플로우 통합 기능 등이 그것이다. 클라우드 플랫폼에서 제공하는 인증 서비스 또한 SAML 기반의 인증 체계를 지원하며 이를 위한 토큰 서비스 (STS)가 마련되어 있다. 이제 기업 내부의 인증 체계는 SAML 토큰을 통해 기업을 벗어나 클라우드 서비스와 소통할 수 있는 기반을 마련하게 되었다.

여기서 한 가지 눈여겨 봐 두어야 할 것으로는 클라우드 플랫폼 내에 존재하는 이 기업의 흔적들이다. 위 그림에서 이 기업을 위해 할당된 영역으로 클라우드 서비스가 제공하는 연산 능력과 저장 공간은 짙게 표시되어 있다.

많은 기업들은 전통적으로 상용 S/W를 구매하거나 자체 개발한 S/W를 자사 IT 부서가 관리하는 전산센터에 설치하여 운영하는 방식으로 기업 내부에서 필요로 하는 기업 전용 애플리케에션 (LOB) 을 사용하여 왔다. 전산 환경에 서비스 중심적인 논의가 활발해지고 시장에서 검증된 SaaS (Software As A Service) 형태의 애플리케이션이 등장하고, LOB 애플리케이션까지 SaaS 형태로 제공되기에 이르자 본고에서 예로 든 기업 또한 이를 적용하기로 하였다.

위 그림에서 보듯이 이 기업이 선택한 SaaS 애플리케이션은 고객 관리 시스템 (CRM)이며 기업의 테두리를 벗어나 외부 어딘가 구름속에 존재하는 서비스 제공자로부터 다소 정형화된 형태의 고객 관리 기능을 서비스로 제공받고 있다. 이 부분에도 역시 기업 내의 인증 시스템과 CRM 서비스 제공자의 인증 시스템은 다를 수 있고 이 둘 사이의 인증 체계 통합을 위해 SAML이 사용되고 있다. 또한 SaaS 영역에서 일반적으로 서비스 제공 업체가 제공하는 모니터링 기능을 사용하여 이 서비스 제공 업체와 계약 당시 체결한 SLA(Service Level Agreement)가 제대로 이행되며 서비스가 제공되고 있는지 살펴볼 수 있다. 또한 그림 3에서 보라색으로 표시된 것과 같이 이 기업이 관리하는 고객들에 대한 정보가 이 기업 내부에 보관되는 것이 아닌, 클라우드 서비스 업체의 전산 센터에 보관되고 있는 것을 알 수 있다. 물론 고객 정보에 대한 데이터 정합성, 백업 등의 관리는 SLA의 일부이다.

이 기업의 비즈니스 중추이자 핵심 역량인 임상 실험 과정에 외부 고객의 참여가 필수적이며 이를 위해서는 기업 내의 직원 인증체계와는 다른 외부 고객 인증 체계가 필요하게 된다.


위의 그림에서 보는 바와 같이 외부 고객이 기업 내의 시스템을 이용하기 위해서는 클라우드 플랫폼이 제공하는 ISB 서비스를 이용하여야 하며 그 중에서도 SAML 토큰을 이용한 통합 인증과 실제 제공 서비스가 직접 노출될 수 없기 때문에 방화벽을 통한 릴레이 서비스 등이 그것이다. 즉, 외부 고객은 클라우드 플랫폼이 제공하는 SAML을 통한 통합 인증 시스템을 이용하여 기업 내의 시스템에 접근할 수 있으며, 클라우드 플랫폼이 중간에 중재하는 릴레이 서비스를 이용하여 기업내의 실제 서비스에 인도될 수 있게 된다. 이 경우 임상 실험에 참여하는 외부 고객은 실제 임상 실험 서비스가 어디에서 제공되는지 알 수도, 알 필요도 없으며, 이를 위해 필요한 인증을 어디서 제공했는지 알 필요도 없게 되는 것이다.

이제 이 모든 퍼즐을 맞추어 보면 다음과 같다.

전통적인 기업이 자사가 필요로하는 시스템을 모두 구비하여 자사의 IT 인력과 자사의 전산 센터를 활용하여 비즈니스에 필요한 정보 및 시스템을 마련하였다면, 오늘날의 기업들은 그림 5에서 보듯이 분산된 시스템을 통해 비즈니스 민첩성을 높이고 IT 자산 합리화를 통해 비용 절감을 가져와 궁극적으로는 기업의 경쟁력을 높이는 수단으로 활용하고 있다. 위 그림에서처럼 클라우드 플랫폼이 제공하는 연산 능력과 저장 공간을 활용하여 일부 서비스를 운영하기도 하고, 운영의 효율성을 위해 일부 시스템을 전문 호스팅 업체에 맡기기도 하고, 일반화되어 이미 시장에서 검증받은 SaaS 형태의 기업용 애플리케이션 (LOB : Line of Business)를 적극 활용하기도 하면서, 고객의 참여를 통해 제품의 품질을 향상시키기 위해 클라우드 서비스의 인증 시스템을 활용한다.

아키텍처
클라우드 플랫폼이 제공하는 기능을 일반화시키기 위해 잠시 SaaS에 대해 살펴보면, SaaS의 핵심은 아키텍처 관점에서 Single instance Multi-Tenancy를 구현하여 다수의 고객을 하나의 인스턴스(시스템)에서 처리할 수 있도록 하는 규모의 경제 (Scale of Economy)가 가능한 애플리케이션 아키텍처를 갖추고 갖추고, 이를 실현할 수 있도록 운영측면에서 고도의 계산과 공간 신축성(Scalability)을 제공할 수 있는 인프라 구성 및 운영 능력이 요구된다. 또한 코드의 변경없이 다수 고객의 요구 사항을 하나의 인스턴스에서 처리할 수 있도록 메타데이터 기반의 구성 요소 관리가 필요하다. 이처럼 SaaS는 고객의 요구 사항의 급작스런 증가에도 유연히 대처할 수 있는 확장성을 근간으로 하기 때문에 SaaS 서비스 제공자들이 점자 클라우드 플랫폼을 SaaS 서비스의 인프라로 활용하고 있는 추세이다.

이처럼 클라우드 플랫폼은 예전의 유틸리티 컴퓨팅의 좁은 시야에서 벗어나 다양한 형태의 서비스 및 서비스 근간이 되는 플랫폼의 역할을 하고 있다. 클라우드 플랫폼이 제공하는 서비스를 요약하면 다음과 같이 도식화할 수 있다.


위의 그림에서 보는 바와 같이 클라우드 플랫폼이 제공하는 클라우드 서비스는 다음과 같이 크게 세 가지로 구분할 수 있다.

애플리케이션 클라우드
SaaS용 애플리케이션이 클라우드 환경에서 운영되는 형태이며 일반 사용자를 대상으로 한 애플리케이션 클라우드와 기업 사용자를 대상으로 한 애플리케이션 클라우드로 나눌 수 있다. 많은 SaaS 애플리케이션이 이와 같은 클라우드 플랫폼의 유연한 확장성을 기반으로 서비스를 제공하는 형태로 발전하고 있다.

플랫폼 클라우드
애플리케이션을 개발하는 데 필요한 각종 서비스 빌딩 블록을 클라우드 환경에서 제공하거나, 실제 클라우드 애플리케이션을 개발하는데 도움을 주는 개발 프레임웍, 개발 환경 플러그인, 가상 테스팅 환경, 개발에 필요한 SDK 등 개발 플랫폼을 제공하여 클라우드 애플리케이션 개발을 일반 애플리케이션 개발 만큼이나 쉽게 진행할 수 있는 장치를 제공한다. 플랫폼 클라우드가 제공하는 빌딩 블록 서비스는 그림에서 보듯이 크게 도메인 특화된 서비스와 범용 서비스로 구분되며 범용 서비스는 다시 일반 사용자용 서비스, 기업 사용자용 서비스, 데이터테이스 서비스 등으로 구분될 수 있다. 개발 플랫폼을 제공하는 클라우드 서비스 제공업체들은 대부분 인터넷 상에서 직접 개발할 수 있는 브라우저 기반 개발 환경을 제공하거나, SDK를 제공하여 널리 사용되는 개발 도구의 플러그인 및 개발 보조 도구를 제공하고 클라우드 운영 환경에 대한 에뮬레이션 기능을 제공하여 일반 애플리케이션 개발할 때와 마찬가지의 개발 및 테스트 환경을 제공한다.

인프라 클라우드
대규모 연산 능력이 필요할 경우 활용할 수 있는 확장성 풍부한 가상화된 전산 자원 (CPU 혹은 메모리)을 즉시 제공하는 서비스 혹은 바이너리 데이터나 구조적인 데이터의 대용량 저장 공간을 제공하는 서비스로 구성되어 있다. 클라우드 서비스 형태 중에 가장 많은 수의 업체들이 제공하는 서비스로서 CPU, 메모리, 저장 공간을 사용량에 따라서 과금하는 형태를 띄며 이미 다수의 업체가 비즈니스를 활발히 진행하고 있다.

사업자 별 클라우드 사업 전략 비교 분석
가트너는 클라우드 컴퓨팅을 “인터넷 기술을 활용하여 외부 고객에게 확장성 및 탄력성의 특징을 제공하는 기술”이라고 정의하고 있다. 세부적으로 5가지의 속성, 즉 ”서비스 기반, 확장성 및 탄력성, 공유, 사용량 기반 과금, 인터넷 기술을 사용”을 만족해야 한다고 설명하고 있다. 한가지를 더 추가한다면 제공 서비스 규모의 “글로벌 스케일”을 들수가 있다. 모든 IT 의사 결정권자는 시스템을 선택할 때 “통제”와 “규모의 경제” 2가지를 고민하게 되는데, 클라우드 컴퓨팅은 “통제” 보다는 “규모의 경제” 속성을 선택했다는 것을 의미하며 “규모의 경제”는 대한민국 시장만을 한정해서는 얻기 어렵기 때문이다. 미국, 중국 등 개별 시장의 규모가 충분히 크다면 가능하겠지만 한국 시장만을 대상으로 규모의 경제를 확보하기는 어렵다.

많은 글에서 클라우드 컴퓨팅에 대한 설명이 이루어졌기에 구체적인 설명은 하지 않고 이번 기고에서는 공용 클라우드와 사설 클라우드 2가지 구분에 대한 부분을 다루어 보도록 하겠다.

클라우드 컴퓨팅은 인프라 클라우드, 플랫폼 클라우드, 애플리케이션 클라우드 3가지 형태로 구성되어 있다. 인프라 클라우드는 논리적으로 가상화된 컴퓨팅 자원(메모리, CPU)을 제공하거나 이미지, 동영상 등의 자료를 저장할 수 있는 스토리지 자원을 제공하는 영역이고, 플랫폼 클라우드는 서비스를 개발하는데 필요한 개발 환경 및 프레임웍, 소프트웨어 개발 킷트(SDK)와 배포 및 운영, 즉 서비스 라이프 사이클 관리를 함께 제공하는 영역, 그리고 인프라 클라우드, 플랫폼 클라우드를 기반으로 최종 사용자가 사용할 수 있는 완제품 서비스를 제공하는 애플리케이션 클라우드 영역으로 나누어 볼 수 있다.

사설 클라우드는 클라우드 서비스를 사용하는 대상을 제한하는 방식이다. 주로 대기업에서 데이터의 소유권을 확보하고, 프라이버시를 보장받고자 할 때 구축될 수 있다. 규모와 대상이 다를 뿐 클라우드가 가지고 있는 속성은 그대로 유지된다. 온-디맨드 가상화 인프라 형태로 구축되는데, 컴퓨팅 자원인 필요할 때 논리적인 가상 머신을 할당하고, 더 많은 자원이 요구될 때 자연스럽게 확장하여 안정적인 서비스를 제공한다. 가장 큰 장점은 전체 인프라에 대한 완전한 통제권을 갖는 다는 것이지만, 규모의 경제 효과를 보기 어렵고 자산 투자가 기존 방식과 같이 해당 업체에서 직접 해야 하기 때문에 사용한 만큼 비용을 내는 운영료 방식의 장점을 확보하기 어렵다.

IBM, HP의 전략은 개별 기업이 사설 클라우드 인프라 구축을 지원하는 방식으로 보여진다. 각 회사의 하드웨어, 소프트웨어를 활용, 즉 블레이드 서버, 서버가상화 기술을 기반 인프라 클라우드 구축을 통한 비즈니스의 성장을 이루어낸다. Sun은 개별 기업의 사설 클라우드 구축을 지원하면서, 자체적으로 공용 클라우드 서비스를 추진하겠다는 전략을 지난 3월 발표했다. 앞에서 설명한 인프라 클라우드 영역을 의미하고, 사설 클라우드의 경우 인프라 클라우드에 초점이 맞춰져 있다.

공용 클라우드는 클라우드 서비스를 사용하는 대상을 제한하지 않는 방식을 의미한다. 전 세계의 소비자, 중소규모 기업, 대기업 사용자, 공공기관, 정부 등 모든 주체가 클라우드 컴퓨팅의 인프라, 플랫폼, 애플리케이션을 사용할 수 있다. 규모의 경제를 통해 경쟁력 있는 서비스 단가를 제공하는 것이 핵심이다

그런데 주목해야 할 부분은 사설 클라우드는 서버 가상화 기술과 관리도구를 잘 엮어서 만들어낸 “고가용성 및 확장성을 갖춘 가상화 인프라”와 큰 차이를 느끼기 어렵다. 규모의 경제 효과를 보기에도 한계가 있다. 엄밀한 의미의 클라우드 컴퓨팅은 공용 클라우드라고 이야기 할 수 있을 것 같다. 공용 클라우드를 구축하여 시장에 진입하려는 사업자는 에코시스템에 대한 이해가 선행되어야 한다. 결국 공용 클라우드가 성공하기 위해서는 최종 사용자가 소비하는 애플리케이션 서비스가 핵심인데 이 서비스를 만드는데 필요한 프로비저닝, 인증, 빌링, 로깅 등의 플랫폼이 얼마나 견고하게 제공되고, 서비스 안정성을 보장하느냐 하는 것이 핵심이 될 것이다. 또한 해당 플랫폼은 서비스와 견고하게 결합되는 방식이 아닌 REST 등의 프로토콜을 통한 느슨한 결합 방식으로 연결되어 다른 공용 클라우드 상의 서비스와도 손쉽게 연동될 수 있도록 지원해야 한다.

아마존의 경우 S3(Simple Storage Service), EC2(Elastic Cloud Computing)의 서비스가 인프라 클라우드 영역에 해당하는 서비스 임을 알 수 있다. 플랫폼 클라우드에서 제공하는 개발 환경은 제공하고 있지 않다. 즉, 아마존은 공용 클라우드를 수행하는 인프라 클라우드 사업자로 분류할 수 있다.

구글은 Google App Engine을 통해 구글의 파일시스템과 데이터 레포지토리를 활용하는 툴을 이용하여 구글 개발 프레임웍 기반에서 Python 언어를 이용해 애플리케이션을 개발할 수 있도록 지원한다. 구글의 환경에 최적화된 애플리케이션을 빠르게 배포할 수 있다. 즉, 이 경우 구글은 공용 클라우드를 수행하는 인프라 클라우드, 플랫폼 클라우드, 구글 Docs 등의 애플리케이션 클라우드를 제공하는 사업자로 분류할 수 있다. 시장에서는 Google App Engine을 PaaS(Platform as a Service) 사업자로서 포지셔닝을 하고 있고, 넓은 의미에서는 서비스의 특성상 신축성이 필수적인 기술 요소 이므로 애플리케이션을 중심으로 한 공용 클라우드 서비스 사업의 한 형태로 볼 수 있다.

마지막으로 마이크로소프트는 사설 클라우드를 위해서 Windows Server 2008 R2의 Hyper-V 서버가상화, 관리도구인 System Center 제품군을 통해 Dynamic Data Center (사설 클라우드 솔루션)을 제공하여 기업이 자체적인 인프라 클라우드를 구축할 수 있도록 한다. 또한, 공용 클라우드는 컴퓨팅 자원, 스토리지를 제공하는 인프라 클라우드 (Windows Azure), 자체 로컬 머신에서 실제 클라우드와 동일한 환경에서 에뮬레이션 할 수 있는 개발 환경을 제공하고, 서비스 라이프 사이클 관리를 제공하고, 자체 On-Premise 시스템과 클라우드 간 연동, 기업용 애플리케이션을 개발툴킷을 통해 각 기업에 최적화된 형태로 사용할 수 있도록 플랫폼 클라우드를 제공한다. 아래 표는 클라우드 서비스를 제공하는 업체들을 제공 서비스의 특징과 전략에 비추어 간단히 비교한 것이다.

클라우드 플랫폼의 산업적 가치와 활용 전략
지금까지 살펴 본 바와 같이, 세계 주요 사업자들 간에는 자사가 추진하는 사업 전략에 맞추어 클라우드 컴퓨팅에 대한 해석과 범위에 적지 않은 차이가 있음을 알 수 있다. 언뜻 보기에, 이러한 혼돈은 클라우드 컴퓨팅의 실질 시장 가치에 대한 논란의 소지가 될 수 있으나, 좀 더 큰 눈으로 바라보면, 클라이언트, 서버, 서비스로 요약될 수 있는 소프트웨어 기술과 제품들이 단절된 개별적 가치에서 인터넷의 개방적 연결성을 중심으로 하나의 커다란 아키텍처를 그리는 방향으로 재편되고 있으며, 그 가운데 시장과 기술의 흐름을 하나로 통합하면서 클라우드 컴퓨팅이란 용어가 필연적으로 등장한 뒤 배경으로 풀이할 수 있다. 또한, 국내외 연관 산업의 활성화라는 거시적 목표를 앞에 두고, 이러한 대세가 가져올 기술적 산업적 의의 요약해 보면, 그 활용 방안을 마련하는데 큰 보탬이 된다.

우선 기술적으로, 더 정확히는, 아키텍처 관점에서, 근래 클라우드 컴퓨팅의 기술적 흐름은 명백히 무상태 연결성(Stateless Connectivity)을 기반으로 하는, 이른바 웹 지향적 아키텍처(Web-Oriented Architecture, 이하 WOA)[참고문헌 11]의 성향을 또렷이 드러내고 있다. 이는, 이질적 기술로 구현된 서비스 블록들이 서로 간의 의존성을 최소화하여 개방성과 상호 운용성을 우선적 가치로 삼는다는 면에서, SOA 철학의 한 가지로 적용 형태로 간주할 수도 있겠다. 하지만, 현재 SOA는 기업 내부 시스템의 아키텍처 개선을 위해, 비즈니스 프로세스 간의 메시징 인프라스트럭처를 장기간 상향식으로 구축하여 궁극적으로 통합된 사업 효율성을 이끌어 낸다는 데 주안점을 두는 일련의 제품과 기술을 통칭하는 용어로 보는 것이 좀 더 현실적이다. 따라서, SOA는 단일 기업 군을 벗어나 인터넷 전체에 분산된 서비스를 하나의 서비스 메쉬(Service Mesh) 엮어낼 수 있는 개념으로 확장되기 어렵다. 무엇보다, 기업 내부는 그 규모의 크고 작음을 벗어나, 조직 바깥으로 서비스를 노출하여 기업 간 서비스 연결성을 확보하는데 목표를 두고 있지 않다. 이런 관점에서, 앞서 언급된 사설 클라우드 또한, 가상화 기술을 빌어서 하부 운영체제 의존성을 줄이고 서비스 관리를 가능한 자동화하려는 목적으로 활용되는, SOA 제품 군의 한 가지 구성 요소 일 뿐이기에, 개별 사업자의 수익 창출 이외에 그 자체만으로 산업적 의의는 거의 없다. 따라서, 산업 생태계 활성화 측면에서, 사설 클라우드 컴퓨팅 자체를 논의하는 것은 무의미하다.

결론적으로, 산업적 효과 측면에서, 클라우드 컴퓨팅의 활용 방안을 논하기 위해서는, 클라우드 컴퓨팅이 하나의 공용 서비스 개발 플랫폼(public platform for service development)으로써 기존의 방식으로 해결하기가 어려웠던 산업적 문제가 어떻게 풀리고, 그에 따라 어떤 효과를 기대할 수 있느냐를 따져 보는 것이 바람직하다. 아래는 이러한 효과를 시각적으로 분석하기 위해 전체 연관 산업 생태계의 구성 요소를 연결한 그림이다.

이는 앞서 설명한 바 있는 클라우드 컴퓨팅의 통합 활용 시나리오를 생태계적 관점에서 다시 해석한 것에 지나지 않는다. 하드웨어 또는 소프트웨어 사업자들은 자사플랫폼 상에서 구동되는 자발적 소프트웨어 개발 공동체가 필요하다. 이를 위해서는 무엇보다, 플랫폼을 확장하고 응용소프트웨어를 개발할 수 있는 개발 도구의 배포가 기본이 된다. 배포된 개발 도구를 사용하여 플랫폼 확장을 시도하는 경우, 엄격하게 플랫폼 명세를 준수할 수 있도록 플랫폼 준수(Conformance) 여부를 검사하는 서비스를 제공하거나 자동화된 도구를 공급할 필요가 있다. 이와 비슷하게 응용소프트웨어를 개발하는 경우에도 플랫폼 호환성(Compatibility) 여부를 자가 또는 위탁 검사하는 서비스를 제공할 필요가 있다. 최종 사용자는 이러한 검증과정에 기대어 하드웨어와 소프트웨어 그리고 그 위에서 구동되는 소프트웨어를 안심하고 구매할 수 있다. 이러한 수요 관계가 정착되면 독립 업체들과 소비자를 직결하는 시장이 형성된다. 소프트웨어 검증 도구 또는 서비스는 시장에 쏟아지는 물건의 품질을 일정하게 유지하면서 장기적으로 시장을 안정화 시키는데 큰 역할을 하게 된다. 한 편, 하드웨어 또는 소프트웨어와 호환되는 서비스를 제공하는 업체도 등장한다. 크게 보면 서비스 운영을 위한 인프라스트럭처 대여를 통해 수익을 추구하는 사업자와 그 위에서 서비스를 직접 개발하여 소비자로부터 직접 서비스 수익을 챙기는 사업자로 나눌 수 있다. 하드웨어 및 소프트웨어 사업자는 이를 위해서도 서비스 호환성을 검사하는 개발 도구나 지침서를 제공할 필요가 있다. 이와 같이 개체 간의 먹이 사슬이 선 순환 관계를 이루기 위해서는, 공정 경쟁을 위한 건전한 시장 형성이 가장 중요하다. 바로, 공용 클라우드 컴퓨팅 기술은 인터넷이라는 전 지구적 인프라스트럭처를 활용하여, 지금까지 개별적으로 맞물려 돌아가던 독자 생태계들이 하나의 클러스터로 묶이도록 하면서, 시장의 규모를 전 지구적으로 확대하려는 움직임 속에서, 시장 진입 장벽을 낮추되 품질은 끌어올리고 개방성과 상호 운용성을 기반으로 하드웨어, 소프트웨어, 서비스, 콘텐츠 가 융합되면서 창출되는 사업 기회를 끌어올리려는 요구 속에서 나타난 산업적 해법의 하나라 할 수 있다.

이러한 흐름을 국내 산업의 활성화와 국제 시장 진출의 교두보로 삼기 위해서는, 시기 적절한 시장 형성, 성장, 유지를 뒷받침하는 정책적 고려가 필요하다. 맨 먼저 국내외에서 개별적으로 구축되고 있는 서비스들이 개방형 아키텍처 아래 서로 수평 수직적으로 연결되어 고부가가치 서비스를 일구어 낼 수 있게끔, 클라우드 컴퓨팅의 통합 활용 시니리오에서 제안한 것과 같은 다양한 서비스들이 연동되는 아키텍처를 정립하려는 노력이 필요하다. 여기서 주의할 점은 기술 다양성의 확보다. 흔히 국가 차원에서 진행되는 사업들은 명백한 산업적 이득 없이, 기술 다양성을 배제하는 형태로 섣부른 통합을 추진하여, 특정 사업자에게 지나친 통제권을 부여함으로써 생태계를 오히려 말살하는 경우가 적지 않다. 인공적인 산업 생태계든, 생물학적 자연 생태계든, 건전한 생태계 조성의 원칙은 동일하다. 건전한 생태계는 종의 다양성을 근간으로 하는 이종 교배로부터 돌연변이 출현이라는 우연성을 보장하는데 있다. 이러한 관점에서, 단순한 REST 프로토콜을 기반으로 이질적 서비스 간의 연동을 간결하게 만드는, WOA의 가치는 되새김질 할만한 가치가 있다. 독립 서비스를 비교적 손쉽게 플랫폼화하여 파생 서비스 시장을 창출할 수 있도록 돕고, 이질적 기술로 구축된 서비스 들간의 간단한 연동을 통해 고 부가가치 서비스 구축을 용이하게 하기 때문이다. 이어서, WOA라는 최소한의 요구 조건에 보태어, 다수의 공용 클라우드 플랫폼 위에 구축될 수많은 서비스들의 품질 인증 정책이 마련되어야 한다. 초기에 큰 관심으로 거대한 시장이 형성되더라도 좋은 품질의 서비스가 지속적으로 이어지지 않으면, 삽시간에 그 시장은 폐허로 변하기 마련이다. 이른바 기껏 구축된 시장이 쓰레기 매립지(Garbage-In, Garbage-Out)가 되지 않도록 유지 관리하는 일은, 너무 가치 자명한 일이라 되풀이 논할 까닭이 없겠다. 덧붙여, 국제간 서비스 연동에 걸림돌이 될 수 있는 관련 데이터 법규를 국제 협상을 통하여 발 빠르게 정비할 필요가 있다. 예를 들어, 해외 수출된 중장비나 중대형 선박들의 추적 서비스를 제공하기 위해, 지구 전역 지도 서비스의 활용이 필요하다고 하자. 현재 국내법으로는 이러한 서비스의 해외 유출도 해외 서비스의 국내 유입도 용이하지 않다. 국가 기밀 사항에 해당되는 지도 데이터의 활용에 대하여 국가간의 허용 범위가 제대로 정비되지 않았기 때문이다. 덧붙여, 나라마다 상이한 보안 정책과 기술 문제도 시장을 확대하는 데 적지 않은 걸림돌이 된다. 이는 앞서 다양한 산업 활용 시나리오를 살피면서 연거푸 언급한 것과 같이, OpenID, Live ID, SAML 등 다양한 보안 및 인증 정책과 기술을 융합 운영할 수 있는 메타 인증 및 보안 모형을 수립하는 것으로 해결 가능하다. 현재 Microsoft가 기존 Cardspace 기술과 Active Directory 기술을 개선하여 “Geneva”란 코드명으로 진행하고 있는 프로젝트도 정확히 동일한 목표를 갖고 있다는 점은, 생태계 확보 측면에서 개방성과 상호 운용성을 향해 나아가는 세계 주요 사업자들의 국제적 산업 추세를 가늠할 때 시사하는 바가 크다. 마지막으로, 국내외 디지털 미디어 사업도 공용 클라우드 플랫폼을 중심으로 다시 한 번 서비스 경쟁을 시작하게 될 것이 자명한 가운데, 영화, 음악, 문서, 소프트웨어 등 이미 인터넷에서 이미 확고한 온라인 시장을 구축하며 생태계 형성에 막강한 힘을 발휘하고 있는 미디어 산업의 잠재력을 버젓이 인식하고 있으면서도, 정작 저작권에 대한 가치 인식 부족과 그에 대한 불신으로 강화된 관련 법규, 그리고 특정 서비스 사업자의 시장 독식이 맞물려, 건전한 생태계 형성이 어려운 국내 산업 상황 또한 공용 클라우드 컴퓨팅의 산업 활성화를 막는 커다란 걸림돌 가운데 하나다. 이동전화기, 프린터, 자동차 산업 등의 국제 경쟁력을 유지하는 데, 멀티미디어 서비스 산업이 핵심적인 역할을 할 것임은 누구나 쉽게 예측할 수 있는 바이기에, 그 관련 법규 및 규제 정비의 중요성을 간과하기 어렵다.

맺음말
본고에서는 클라우드 컴퓨팅 기술을 중심으로 국내외 연관 산업의 활성화를 위해, 마이크로소프트의 전략 및 기술로부터 무엇을 배우고 활용할 수 있는지를 살펴보았다. 우선, 실제 실현 가능성이 높은 산업 활용 시나리오를 단계별로 살펴보면서, 클라우드 컴퓨팅을 실현하는 요소 기술의 면면보다는 실제 산업에서의 다양한 활용 방식에 대처하기 위하여, 어떤 구성 요소를 반드시 갖추어야 하는지를 이끌어내고자 하였다. 이어, 이러한 정의에 따라, 현재 세계 수준의 클라우드 컴퓨팅 기술 사업자들이 어떤 사업 전략을 중심으로 움직이고 있는지를, 생태계 활성화 측면에서 살펴보면서, 산업 별로 투자 가치를 체계적으로 분석할 수 있는 비평의 기준을 마련해보고자 하였다. 또한 이를 바탕으로 내수 시장의 활성화는 물론 국제 시장 진출을 위한 교두보로써 WOA 기반의 서비스 클라우드 클러스터란 해법을 제언하였으며, 이를 위하여 선결할 과제들을 간단히 되짚어 보았다.

되풀이 말하건데, 어떤 새로운 기술이나 시장의 흐름이든 그 산업적 가치 즉 파급효과는, 앞서 소프트웨어 생태계 그림에서 기술한 바와 같이, 먹이 사슬 관계로 연결된 산업 생태계에 미치는 긍정적 영향력의 넓이와 크기를 일컫는다. 따라서 클라우드 컴퓨팅 역시, 그 낱말이다 세부 기술 그 자체의 가치가 아니라, 생태계 측면에서 클라우드 컴퓨팅으로 (여태까지 하지 못했던) 무엇을 어떻게 하겠다는 것인지에 대하여 또렷한 목표를 정하는 것이 훨씬 중요하다. 극단적으로 말해서, 우리 산업이 “왜 클라우드 컴퓨팅이 필요한가”에 대하여 공감할만한 답변을 이끌어낼 수 없다면, 클라우드 컴퓨팅은 더 이상 산업 측면에서 논의할 일고의 가치도 없는 또 하나의 기술적 언어 유희에 불과하다. 본고에서, 클라우드 컴퓨팅의 구현 기술보다, 산업 활용 시나리오를 중심으로 그 핵심 서비스 요소를 논의하고자 하였던 까닭, 그리고 그에 덧붙여, 사설 클라우드 보다는 서비스 개발 플랫폼으로써 공용 클라우드의 가치에 더 큰 중점을 두었던 것이 바로 그 때문이다.

결언하여, 마이크로소프트의 사설 클라우드 기술은 Azure Services Platform(애저 서비스 플랫폼)이라는 상품명으로 대변되는 공용 클라우드 기술로부터 비롯되었다. 단순한 기술적 가치만 바라보면 사설 클라우드와 공용 클라우드는 서로 차이점이 없으나, 둘 사이의 산업적 효과에는 또렷한 차이가 있다. 적어도 마이크로소프트의 공용 클라우드 사업 정책은 PaaS 방식을 중심으로 하여 다양한 산업 활용 시나리오를 지원하는 생태계 확보 전략에 철저하게 뿌리를 두고 있다. 타 사업자와 달리, 모든 클라우드 계산 능력을 Windows Azure(윈도우 애저)라는 단일한 분산 운영체제 형태로 추상화하는 것만 보아도, 그 목적을 또렷이 가늠하고도 남음이 있다. 앞절에서 논의한 바와 같이, 우리 산업이 철저히 분석하고 배워야 할 것이 있다면, 클라우드 컴퓨팅 기술 그 자체의 단순한 차입이나 활용이 아닌, 바로 이와 같은 생태계 전략에 있다. 그리고, 생태계 전략의 핵심은 기술 표준에 기반하여, 개방성과 상호 운용성을 밑받침으로 하는 기술 다양성의 보존에 있다. 여전히 소프트웨어 산업에서 무시 못할 영향력을 유지하고 있는, 마이크로소프트라고 할지라도 자발적 참여 문화를 기반으로 고도의 분산 컴퓨팅 환경(Highly Decentralized Computing Environment)을 지향하는 대세를 거스를 수는 없다. “인터넷을 중심으로한 자발적이고 분산된 컴퓨팅 환경에서, 서비스 중심의 소프트웨어 시장을 유치하기 위한 거대한 공용 플랫폼 메시지.” 우리 산업이 반드시 놓쳐서는 안될 클라우드 컴퓨팅의 참된 산업적 의미가 있다면, 바로 이 것이다.

참고문헌
1.Simon Gallagher, “Cloud Wars:VMware vs Microsoft vs Google vs Amazon Clouds,” http://vinf.net/2008/10/01/cloud-wars-vmware-vs-microsoft-vs-google-vs-amazon-clouds, 2008.10
2.Microsoft, Azure Services Platform, http://www.microsoft.com/azure/windowsazure.mspx
3.David Chappell, A Short Introduction to Cloud Platforms, http://www.davidchappell.com/CloudPlatforms--Chappell.pdf
4.Microsoft, The Architecture Journal - The Internet Service Bus, http://msdn.microsoft.com/en-us/architecture/bb906065.aspx
5.Microsoft, The Architecture Journal – Head in the Cloud, Feet on the Ground, http://msdn.microsoft.com/en-us/architecture/dd129910.aspx
6.Google, Google App Engine, http://appengine.google.com
7.IBM, IBM Cloud Computing, http://www.ibm.com/ibm/cloud/
8.HP, Cloud Computing, http://h71028.www7.hp.com/enterprise/us/en/technologies/cloud-computing.html
9.Sun, Cloud Computing, http://www.sun.com/solutions/cloudcomputing/index.jsp
10.Amazon, Amazon Web Services, http://aws.amazon.com/
11.WOA, http://en.wikipedia.org/wiki/Web_Oriented_Architecture

Jan 15, 2010

동네에서 출퇴근 하는 시대 온다

아이뉴스, 박영례기자, 2010-01-13
2013년까지 스마트오피스 22개 구축

기존의 재택근무와 달리 특정 지역에 업무시설 및 원격회의·육아시설을 갖춘 '스마트 오피스(Smart office)'를 이용 출퇴근하지 않고 업무를 처리할 수 있는 시대가 열린다.

13일 국가정보화전략위원회(위원장 이각범)와 행정안전부(장관 이달곤)는 '스마트 오피스 추진 기본 계획(안)'을 통해 이같이 밝혔다.

계획안에 따르면 올해 예산 14억원을 들여 분당이나 일산 등과 같은 수도권 지역 두군데에 25석 규모의 종합적인 원격근무가 가능한 스마트 오피스가 구축된다.

시범사업을 거쳐 오는 2013년 22개로 늘리고 2015년에는 원격근무율을 현행 4% 수준에서 20%까지 늘린다는 목표다.

스마트 오피스는 도심에 있는 본청 또는 본사 사무실에 출근하지 않고 원격지에서 업무를 처리할 수 있는 IT기반 사무실. 업무시설은 물론 육아, 원격 회의시설 등을 갖춰 출근하지 않고도 업무가 가능하다.

별도의 공간에 근무환경을 구축한다는 점에서 기존의 집에서 일하는 방식의 재택근무와는 차이가 있다. 무엇보다 세계 최고수준의 IT 인프라에 육아는 물론 근태관리, 정보보안, 사무환경 등을 제공, 기존의 재택근무의 한계를 해결했다는 게 정부측 설명이다.

정부는 올해 수도권 외곽 및 교통요지 공공기관 공간을 활용, 시범구축 및 실증시험을 거쳐 문제점을 보완한후 단계적으로 확대한다는 방침이다.

또 이에 필요한 관련 법제도를 정비, 스마트 오피스 구축 등 기반조성을 통해 공공은 물론 민간까지 이를 확대시킬 계획이다. 국가정보화전략위원회도 이를 핵심과제로 선정, 적극 추진한다는 의지다.

필요 재원은 지자체 재원(지방도시교통사업특별회계) 및 민간투자 사업방식을 활용하는 방안이 함께 검토된다.

박성일 행안부 정보화기획관은 "일산 분당 등 두군데 정도 시범적으로 추진, 민간까지 확산시킨다는 계획"이라며 "실질적으로 안되는 부분이 기술적인 측면 보다는 법제도적 문화적 측면이 강해 이런점을 보완, 강화해 나갈 계획"이라고 설명했다.

아울러 "시범 사업 대상은 각 부처 등과 협의, 수요조사를 통해 대상자를 선정할 계획"이라며 "민간확대를 위해 필요하다면 민간자본 등 혼합형으로 민관 합동으로 시범구축할 수 있다"고 설명했다.

◆스마트오피스 구축, 효과는

행안부에 따르면 현재 공공기관 기준 1명이라도 재택근무를 이용하는 경우는 전체의 4%. 국가정보화위원회와 행안부는 이를 20%까지 확대한다는 목표다.

이같은 스마트 오피스 도입은 세계 최고 수준의 IT인프라를 적극 활용하는 한편 국가 과제가 되고 있는 저탄소 녹색성장 및 저출산 문제 해결 차원에서 마련 됐다.

실제 행안부는 대면 또는 현장업무가 필수인 경찰, 교사 등 특정 분야를 제외하고 기획, 연구 등 스마트 오피스를 적용할 수 있는 경우가 공공부문에서만 30만명에 달할 것으로 추산하고 있다. 이중 20%만 스마트 오피스를 활용해도 5만4천명에 달하는 규모다.

이들이 하루평균 550명, 대중교통과 자동차를 8대2 비율로 이용한다고 가정할 때, 스마트 오피스를 통해 절감할 수 있는 CO2는 연간 1천톤에 달할 것으로 추정됐다.'

특히 출퇴근에 평균 2시간 가량 소요되는 것을 줄여, 이를 자기계발 등에 활용할 경우 1인당 230만원의 복지혜택이 돌아 갈 수 있다는 계산이다.

무엇보다 육아, 노부모 간병 등의 이유로 휴직, 이같은 부담으로 출산을 꺼리는 문제를 해소할 수 있어 저출산 문제를 해소할 수 있는 방안이 될 것이라는 기대다.

박성일 정보화기획관은 "저탄소 녹색성장, 저출산 문제, 업무생산성향상 등 국가 현안 해소 및 일하는 방식의 선진형 전환 등으로 원격근무 중요성이 늘고 있다"며 이를 강조했다.

아울러 "단순히 일하는 방식의 선진화 뿐 아니라, IT 기술이 융합시대를 맞아 사회환경을 어디까지 얼마나 변화시킬지 예측하기 어려운 상황에서 변화 가능한 모든 것을 담아 경쟁력을 높이고 효율적으로 일할 수 있는 기반 을 마련하는 첫 시도가 될 것"이라고 강조했다.

또 "스마트오피스는 재택근무와 원격지 근무가 결합된 '스마트 워크'를 활성화하기위한 전단계"라며 "교통유발부담금 경감, 인센티브 제공 등 실질적으로 운영될 수 있는 제도적 보완 등을 통해 민간부문까지 적극 확산시킬 계획"이라고 덧붙였다.

Jan 3, 2010

Linux 가상화와 PCI passthrough

M. Tim Jones, Independent author, Emulex
요약: 프로세서 분야에서는 가상화된 환경의 성능 향상을 위한 많은 발전이 있었습니다. 그렇다면 I/O 분야에서는 어떤 발전이 있었을까요? 이 기사에서는 I/O 성능 향상 기술인 장치(또는 PCI) passthrough에 대해 설명합니다. 이 혁신 기술은 Intel(VT-d) 또는 AMD(IOMMU)의 하드웨어 지원을 사용하여 PCI 장치의 성능을 높여 줍니다.

플랫폼 가상화는 효율적인 리소스 사용을 위해 두 개 이상의 운영 체제에서 하나의 플랫폼을 공유하는 것을 말한다. 하지만 여기에서 플랫폼은 단순히 프로세서만을 의미하는 것이 아니라 스토리지, 네트워크 및 기타 하드웨어 리소스를 비롯하여 플랫폼을 구성하는 다른 중요 요소까지도 포함된 의미이다. 프로세서나 스토리지와 같은 일부 하드웨어 리소스는 쉽게 가상화할 수 있지만 비디오 어댑터나 직렬 포트와 같이 가상화하기 어려운 하드웨어 리소스도 있다. 하지만 PCI(Peripheral Component Interconnect) passthrough를 사용하면 공유할 수 없거나 공유 효율성이 낮은 리소스를 효과적으로 사용할 수 있다. 이 기사에서는 passthrough의 개념을 살펴보고 하이퍼바이저에서 passthrough를 구현하는 방법에 대해 알아본 후 이 혁신적인 최신 기술을 지원하는 하이퍼바이저에 대해 자세히 설명한다.

플랫폼 장치 에뮬레이션
그림1. 하이퍼바이저 기반 장치 에뮬레이션
passthrough를 시작하기 전에 먼저 두 가지 최신 하이퍼바이저 아키텍처에서 장치 에뮬레이션이 작동하는 방법을 살펴보자. 첫 번째 아키텍처에서는 장치 에뮬레이션이 하이퍼바이저 내에 통합된 반면 두 번째 아키텍처에서는 하이퍼바이저 외부의 애플리케이션에서 장치 에뮬레이션을 처리한다.

하이퍼바이저 내의 장치 에뮬레이션은 VMware 워크스테이션 제품에서 일반적으로 구현하는 방법이다(운영 체제 기반 하이퍼바이저). 이 모델에서는 가상 디스크, 가상 네트워크 어댑터 및 기타 필수 플랫폼 요소를 비롯하여 다양한 게스트 운영 체제에서 공유할 수 있는 공통 장치에 대한 에뮬레이션이 하이퍼바이저에 포함되어 있다. 그림 1에서 이 특별한 모델을 볼 수 있다.

두 번째 아키텍처는 사용자 공간 장치 에뮬레이션이다(그림 2 참조). 이름에서 알 수 있듯이 이 아키텍처에서는 장치 에뮬레이션이 하이퍼바이저 내에 포함되지 않는 대신 사용자 공간에서 구현된다. 장치 에뮬레이션을 지원하는 QEMU(장치 에뮬레이션과 하이퍼바이저를 모두 제공함)는 수많은 독립 하이퍼바이저(KVM(Kernel-based Virtual Machine) 및 VirtualBox)에서 사용된다. 이 모델의 장점은 장치 에뮬레이션이 하이퍼바이저와 독립되어 있기 때문에 여러 하이퍼바이저에서 장치 에뮬레이션을 공유할 수 있다는 것이다. 또한 이 기능을 사용하면 권한이 있는 상태에서 작동하는 하이퍼바이저에 부담을 주지 않고 임의의 장치 에뮬레이션을 수행할 수 있다.
그림2. 사용자 공간 장치 에뮬레이션
장치 에뮬레이션을 하이퍼바이저에서 사용자 공간으로 옮기면 몇 가지 뚜렷한 장점을 얻을 수 있으며 그 중에서 가장 중요한 장점은 TCB(trusted computing base)와 관련되어 있다. 시스템의 TCB는 보안에 중요한 모든 구성 요소의 세트이다. 당연한 말이겠지만 만일 시스템을 최소화하게 되면 버그의 가능성도 줄어들기 때문에 보다 더 안전한 시스템이 될 것이다. 이와 동일한 아이디어가 하이퍼바이저에도 적용된다. 하이퍼바이저는 독립된 여러 게스트 운영 체제를 분리하기 때문에 보안이 매우 중요하다. 하이퍼바이저의 코드 양이 적을수록 즉, 장치 에뮬레이션을 더 적은 권한이 요구되는 사용자 공간에서 구현하면 신뢰할 수 없는 사용자에게 권한이 주어지는 경우가 줄어든다.

하이퍼바이저 기반 장치 에뮬레이션의 또 다른 형태로는 병렬화된 드라이버가 있다. 이 모델에서는 하이퍼바이저에 실제 드라이버가 포함되며, 각각의 게스트 운영 체제에 하이퍼바이저 드라이버와 함께 작동하는 하이퍼바이저 인식 드라이버(병렬 가상화된 또는 PV 드라이버)가 포함된다.

장치 에뮬레이션이 하이퍼바이저나 게스트 VM(Virtual Machine)에서 발생하는지 여부에 상관 없이 에뮬레이션 방법은 비슷하다. 장치 에뮬레이션은 특정 장치(예: Novell NE1000 네트워크 어댑터)나 특정 유형의 디스크(예: IDE(Integrated Device Electronics) 드라이브)를 모방할 수 있다. 실제 하드웨어가 크게 다를 수 있다. 예를 들어, 게스트 운영 체제에는 IDE 드라이브가 에뮬레이션되어 있고 실제 하드웨어 플랫폼에서는 SATA(serial ATA) 드라이브를 사용할 수 있다. 이렇게 하면 모든 게스트 운영 체제에서 고급 드라이브 유형을 지원하지 않아도 많은 운영 체제에서 공통으로 지원되는 IDE를 공통으로 사용할 수 있기 때문에 큰 효과를 얻을 수 있다.

장치 passthrough
위에서 설명한 두 가지 장치 에뮬레이션 모델에서 살펴본 바로는 장치를 공유하기 위해 몇 가지 추가 요소가 필요하다. 즉, 장치 에뮬레이션이 하이퍼바이저에서 수행되던 독립 VM 내의 사용자 공간에서 수행되던 상관 없이 오버헤드가 있다는 것을 알 수 있다. 여러 게스트 운영 체제에서 장치를 공유할 필요가 있는 한 이 오버헤드는 충분한 가치를 지니고 있다. 하지만 이러한 공유가 필요 없을 경우에는 보다 효율적인 방법으로 장치를 공유할 수 있다.

크게 말해서 장치 passthrough는 장치를 배타적으로 사용할 수 있도록 지정된 게스트 운영 체제에 전용 장치를 제공하는 것이다(그림 3 참조). 그렇다면 이렇게 했을 때 얻을 수 있는 장점은 무엇일까? 물론 장치 passthrough가 유용한 이유는 여러 가지이다. 그 중에서 가장 중요한 두 가지 이유를 들자면 첫 번째가 성능이고, 두 번째는 본질적으로 공유할 수 없는 장치를 배타적으로 사용할 수 있다는 것이다.
그림3. Hypervisor 내에서의 PassThrough

성능 면에서 보았을 때, 장치 passthrough를 사용하면 성능 손실이 거의 발생하지 않는다. 따라서 장치 passthrough는 하이퍼바이저를 통과할 때(하이퍼바이저 내의 드라이버나 사용자 공간 에뮬레이션에 대한 하이퍼바이저를 통과할 때) 발생하는 경합과 성능 저하 때문에 가상화를 채택하지 않은 네트워크 애플리케이션(또는 디스크 입출력이 많은 애플리케이션)에 이상적인 기술이다. 하지만 특정 게스트에 장치를 할당하는 방법은 해당 장치를 공유할 수 없는 경우에도 유용하다. 예를 들어, 시스템에 여러 개의 비디오 어댑터가 있을 경우 이러한 어댑터를 고유한 게스트 도메인에 직접 연결할 수 있다.

마지막으로 하나의 게스트 도메인에서만 사용하는 특수 PCI 장치나 하이퍼바이저에서 지원하지 않기 때문에 게스트에 직접 연결해야 하는 장치가 있을 수 있다. 개별 USB 포트를 지정된 도메인으로 분리하거나 직렬 포트(그 자체로는 공유할 수 없는 장치)를 특정 게스트에 분리할 수 있다.

장치 에뮬레이션에 대한 이해

초기의 장치 에뮬레이션에서는 하이퍼바이저 내에 장치 인터페이스의 섀도우를 구현하여 게스트 운영 체제에 가상 인터페이스를 제공했다. 이 가상 인터페이스는 장치(예: 섀도우 PCI)를 나타내는 가상 주소 공간과 가상 인터럽트를 포함한 예상 인터페이스로 구성되어 있다. 하지만 가상 인터페이스와 통신하는 장치 드라이버와 이 통신을 실제 하드웨어로 변환하는 하이퍼바이저를 사용하면 상당한 수준의 오버헤드가 발생하며 특히, 네트워크 어댑터와 같은 고사양 장치의 경우에는 오버헤드의 수준이 더욱 높아진다.

Xen에서 대중화시킨 PV 방법(앞 섹션에서 설명함)은 게스트 운영 체제 시스템 드라이버가 가상화되고 있음을 인식하도록 하여 성능의 저하를 줄인다. 이 경우 게스트 운영 체제는 네트워크 어댑터와 같은 장치에 대한 PCI 공간 대신 상위 레벨 추상화를 제공하는 네트워크 어댑터 API(예: 패킷 인터페이스)를 본다. 이 방법의 단점은 게스트 운영 체제를 PV에 맞게 수정해야 한다는 것이며 장점은 손실이 거의 없는 수준의 성능을 얻을 수도 있다는 것이다.

초기의 장치 passthrough에서는 하이퍼바이저가 소프트웨어 기반 메모리 관리(게스트 운영 체제 주소 공간을 트러스트된 호스트 주소 공간으로 변환)를 제공하는 씬 에뮬레이션 모델을 사용했다. 그리고 초기 시도에서는 장치를 특정 게스트 운영 체제로 분리할 수 있는 방법을 제공하기는 했지만 이로 인해 대규모 가상화 환경에 필요한 성능과 확장성이 부족하다는 단점이 있었다. 다행스럽게도 프로세서 공급자가 하이퍼바이저뿐만 아니라 인터럽트 가상화 및 DMA(Direct Memory Access) 지원을 포함한 장치 passthrough의 논리까지도 지원하는 명령어를 갖춘 차세대 프로세서를 개발했다. 따라서 하이퍼바이저 아래에 있는 실제 장치에 대한 액세스를 확인하고 에뮬레이션하는 대신 새 프로세서는 효율적인 장치 passthrough를 위해 DMA 주소 변환 및 권한 검사 기능을 제공한다.

장치 passthrough를 위한 하드웨어 지원

Intel과 AMD 모두 자사의 새로운 프로세서 아키텍처에서 장치 passthrough에 대한 지원과 하이퍼바이저를 지원하는 새로운 명령어를 제공한다. Intel에서는 이 옵션을 VT-d(Virtualization Technology for Directed I/O))라고 부르고 AMD에서는 IOMMU(I/O Memory Management Unit)라고 부른다. 두 경우 모두 새 CPU가 PCI의 실제 주소를 게스트의 가상 주소에 맵핑한다. 이 맵핑이 발생하면 하드웨어가 액세스를 보호하게 되며, 결과적으로 게스트 운영 체제에서는 가상화되지 않은 시스템인 것처럼 장치를 사용할 수 있다. 게스트를 실제 메모리에 맵핑하는 기능 외에도 다른 게스트(또는 하이퍼바이저)의 액세스를 차단하는 분리 기능이 제공된다. 이외에도 Intel 및 AMD CPU는 다양한 가상화 기능을 제공한다. 참고자료 섹션에서 자세한 정보를 확인할 수 있다.

또 하나의 혁신 기술로서 인터럽트를 많은 수의 VM으로 확장할 수 있는 MSI(Message Signaled Interrupts)라는 기능이 있다. MSI는 실제 인터럽트 핀을 통해 게스트에 연결하는 대신 인터럽트를 보다 쉽게 가상화할 수 있는 메시지로 변환한다(수천 개의 개별 인터럽트로 확장). PCI 버전 2.2부터 도입된 MSI는 PCIe(PCI Express)에서도 사용할 수 있으며, PCIe에서는 패브릭을 사용하여 다수의 장치로 확장할 수 있다. MSI는 인터럽트 소스를 분리(소프트웨어를 통해 멀티플렉싱 또는 라우팅되어야 하는 실제 핀과는 반대되는 방법)할 수 있기 때문에 I/O 가상화에 이상적이다.

장치 passthrough를 위한 하이퍼바이저 지원

가상화 기능이 강화된 최신 프로세서 아키텍처를 기반으로 수많은 하이퍼바이저 및 가상화 솔루션에서 장치 passthrough를 지원하고 있다. Xen과 KVM뿐만 아니라 다른 여러 하이퍼바이저에서도 장치 passthrough에 대한 지원(VT-d 또는 IOMMU 사용)을 찾아볼 수 있다. 대부분의 경우에는 passthrough를 지원하기 위해 게스트 운영 체제(도메인 0)를 컴파일해야 하며, 이 컴파일 작업은 커널 빌드 타임 옵션으로 제공된다. 또한 pciback을 사용하여 Xen에서 수행했던 것처럼 호스트 VM에서 장치를 숨겨야 한다. PCI에서는 PCIe-to-PCI 브리지 뒤에 있는 PCI 장치를 동일한 도메인에 할당해야 한다는 등의 약간의 제한 사항이 있지만 PCIe에서는 이러한 제한 사항이 없다.

또한 libvirt(및 virsh)에도 장치 passthrough에 구성 지원이 있으며, 이 구성 지원은 기본 하이퍼바이저에 사용되는 구성 스키마에 대한 추상화 기능을 제공한다.

장치 passthrough와 관련된 문제점

실시간 마이그레이션이 필요할 경우 장치 passthrough와 관련된 한 가지 문제가 발생한다. 실시간 마이그레이션은 VM을 일시 중단한 후 VM의 다시 시작 위치를 가리키는 새로운 실제 호스트로 마이그레이션하는 기능이다. 이 기능은 실제 호스트 네트워크 상에서 VM의 로드 밸런싱을 지원하는 뛰어난 기능이지만 passthrough 장치를 사용할 경우 문제가 발생한다. 해결해야 하는 문제점으로 PCI 핫플러그(여러 스펙이 있음)가 있다. PCI 장치와 지정된 커널 간의 통신을 지원하는 PCI 핫플러그는 VM을 새 호스트 시스템에 있는 하이퍼바이저로 마이그레이션하려는 경우에 이상적이다(장치를 언플러그하지 않아도 새 하이퍼바이저에서 나중에 자동으로 플러그됨). 가상 네트워크 어댑터와 같이 장치가 에뮬레이션될 때 에뮬레이션에서 실제 하드웨어를 추상화하는 계층을 제공한다. 이렇게 하면 가상 네트워크 어댑터를 VM 내에서 쉽게 마이그레이션할 수 있다(여러 논리적 네트워크 어댑터를 동일한 인터페이스에 연결할 수 있는 Linux® 본딩 드라이버(bonding driver)에서도 지원됨).

I/O 가상화의 다음 단계

I/O 가상화의 다음 단계는 오늘날 실제로 발생하고 있다. 예를 들어, PCIe에 가상화에 대한 지원이 있다. 서버 가상화에 이상적인 한 가지 가상화 개념으로 SR-IOV(Single-Root I/O Virtualization)가 있다. PCI-Special Interest Group 또는 PCI-SIG에서 개발한 이 가상화 기술은 단일 루트 복합 인스턴스 내에서 장치 가상화를 제공한다. 이 경우에는 단일 서버에 있는 여러 VM이 장치를 공유한다. 또 다른 변형 기술인 멀티 루트 IOV는 더 큰 토폴로지(예를 들어, 여러 서버가 하나 이상의 PCIe 장치에 액세스할 수 있는 블레이드 서버)를 지원한다. 어떤 의미에서 이 기술은 서버, 종단 장치 및 스위치를 포함한 대규모 장치 네트워크까지도 지원한다.

SR-IOV를 사용하면 PCIe 장치에서 수많은 실제 PCI 기능뿐만 아니라 I/O 장치의 리소스를 공유하는 가상 기능의 세트까지도 내보낼 수 있다. 그림 4에서는 간단한 형태의 서버 가상화 아키텍처를 보여 준다. 이 모델에서는 가상화가 종단 장치에서 발생하기 때문에 passthrough가 필요하지 않으며 하이퍼바이저에서 가상 기능을 VM에 맵핑하는 것만으로도 분리의 보안과 함께 원시 장치의 성능을 얻을 수 있다.
그림 4. SR-IOV를 이용한 PassThrough

추가 주제

가상화는 약 50년 동안 개발되고 있는 기술이지만 I/O 가상화에 대한 관심은 이제야 확산되고 있다. 상용 프로세서의 가상화 지원도 고작 5년 정도에 불과하다. 따라서 지금이 바로 진정한 의미에서의 플랫폼 및 I/O 가상화가 시작되는 출발점이라고 해도 과언이 아닐 것이다. 또한 클라우드 컴퓨팅과 같은 미래 아키텍처의 주요 요소로 자리 잡을 가상화는 앞으로 그 발전을 눈 여겨 볼만한 흥미로운 기술임에 틀림 없다. 일반적으로 이러한 새 아키텍처를 선도적으로 지원하는 Linux이기에 최신 커널(2.6.27 이상)에도 가상화와 관련된 이러한 신기술에 대한 지원이 포함되어 있다.

AMD, 새로운 I/O 가상화 기술 무상 제공 발표

AMD, I/O 브릿지에 직접 적용하는 새로운 I/O 가상화 기술 무상으로 제공 –
- AMD CPU 가상화 기술의 효율성을 보다 증대시킬 것으로 기대 –

IDC 가상화 포럼, 뉴욕 -- 2006-02-08 -- AMD는 금일 뉴욕에서 개최된 IDC 가상화 포럼에서 새로운 I/O 가상화 기술 사양을 발표하고, 새로운 I/O 가상화 기술을 하드웨어 및 소프트웨어 개발자들이 폭넓게 채택할 수 있도록 무상으로 라이센스를 제공할 예정이라고 밝혔다.

AMD의 I/O 가상화 기술은 컴퓨터의 I/O 브릿지에 직접 적용되는 명령어 기술 세트로, x86 기반의 서버나 데스크탑, 노트북 PC의 I/O 디바이스를 가상화할 시에 발생될 보안 문제나 성능 병목현상을 해소시켜 줌으로써 AMD의 CPU기반 가상화 기술의 이점을 더욱 확장시킬 수 있도록 설계됐다.

코드명 퍼시피카로 잘 알려진 AMD의 CPU 가상화 기술은 기존 소프트웨어 기반의 가상화 방식에 더해 프로세서 아키텍처 내에서 가상화를 지원, 효율성을 더욱 향상시켜 준다. AMD의 I/O 가상화 기술은 I/O 디바이스의 관리, 파티셔닝 및 보안과 관련된 가상화 소프트웨어를 지원하기 위한 하드웨어적 장치를 제공해줌으로써 AMD CPU가상화 기술의 효율성을 보완하고 확대시키게 된다. AMD는 이와 같은 I/O 가상화 기술을 통해 가상의 I/O 환경을 제공하는 데 있어 성능을 향상시키고, 구현의 복잡함을 감소시켜주는 결과를 가져올 것으로 기대하고 있다.

AMD 마이크로 프로세서 솔루션 부문 수석 부사장인 마티 세이어(Marty Seyer)는 “AMD의 I/O 가상화 기술은 상업용 서버에 성능상의 이점을 제공할 뿐만 아니라, 디바이스 가상화 부문에서 어려움이 있는 데스크탑 및 노트북 PC 상의 가상화를 위해서도 새로운 전환점이 될 것이다” 라며 “업계 에코시스템에 적극 동참해온 AMD는 하드웨어 및 소프트웨어 개발 커뮤니티 전반에 I/O 가상화 기술 라이센스를 공개 제공함으로써 AMD 가상화 기술 개발을 위한 협업 방식을 지속할 수 있게 된 것을 매우 기쁘게 생각한다.” 라고 말했다.

한편, 가상화 솔루션 구현을 위해 설계된 첨단의 기술을 업계에 제공하기 위한 AMD의 협업 방식은 MS, VM웨어(VMware), 젠소스(XenSource)를 포함하는 가상화 기술 분야 선두 업체들과의 전략적 제휴를 통해 입증되고 있다.

MS의 윈도우 서버 부문 수석 책임자인 제프 프라이스(Jeff Price)는 “가상화는 고객들이 물리적 한계를 극복하고, IT 시스템의 역량을 충분히 사용하도록 도와줄 뿐만 아니라 운영 효율성을 증가시켜 보다 역동적으로 비즈니스 요구사항에 응대할 수 있게 해주는 데 있어 핵심 수단이 된다” 라며 “AMD와의 긴밀한 협력을 통해 IT 시스템의 비용 효율성 증대뿐만 아니라, 보안, 관리성, 상호 운영성을 보장할 수 있는 혁신적인 새로운 수준의 기술을 개발 중에 있다”고 말했다.

젠소스사의 CTO인 시몬 크로스비(Simon Crosby)는 “I/O 디바이스 부문에 가상화를 지원하는 것은 하드웨어 가상화 부문을 한 단계 진전시켜주는 것이다” 라며 “ AMD의 I/O 가상화 기술의 공개는 오픈 및 오픈소스 x86 기반 가상화 기술을 개발에 있어 업계를 선도하기 위한 AMD와 젠소스간의 협력을 보다 돈독히 해줄 것이다” 라고 말했다.

이번 AMD의 I/O 가상화 기술은 2006년 중순까지 AMD의 모든 프로세서에 의해 지원될 것으로 예상되며, 2006년에 AMD64 기반 플랫폼을 위해 설계될 코어 로직 및 칩셋 상에 도입될 예정이다. AMD I/O 가상화 기술 사양은 기술 개관 및 64비트 기술을 위해 가상화 솔루션을 설계중인 소프트웨어 개발자들을 위한 안내서와 함께 다운로드 받을 수 있으며, http://developer.amd.com 에서 제공된다.

AMD에 대해
AMD는 컴퓨팅, 통신, 소비자 가전 제품을 위한 혁신적인 마이크로프로세서를 제공하는 세계적인 선두업체이다. 1969년에 설립된 AMD는 현재 전세계 고객의 요구에 기반한 뛰어난 컴퓨팅 솔루션을 제공하는데 헌신하고 있다. www.amd.co.kr.

네트워크 트래픽 완화해주는 I/O 가상화 소프트웨어

지난 3월 “인텔리전트 NIC”계열의 네트워크 카드를 내놓은 Ethernet 가속기 칩 및 보드 회사인 NetXen사는 이 카드들을 위해 계획된 몇몇 프리 소프트웨어 패키지 중 첫번째 패키지를 내놓았다. NetSlice는 많은 서버 OS 스위트에 존재하는 가상머신 모니터를 바이패싱 함으로써 I/O 가상화를 수행한다.

이 회사는 I/O가 고성능 서버 클러스터에서 주요 병목 부분이 되어가고 있기 때문에 I/O 가상화를 가지고 시작하기로 선택했다.

가상화는 여러 시스템 이미지들이 한 서버 하드웨어 시스템에 존재하도록 해주며, 서버와 스토리지 성능을 최적화시키는 수단으로 종종 조성된다. 그러나 가상화는 데이터 센터가 공중망과 상호작용하는 곳에서 예를 들어 캐리어 간의 서비스 레벨 협약을 세우는 것 같은 케이스에서 역할을 한다고 NetXen의 마케팅 시니어 디렉터인 Vik Karvat 씨는 말했다. 엔터프라이즈 내에서 서버 뱅크들을 위한 전력과 랙 공간, 냉각 성능에서의 이점들은 가상화가 최대한 활용될 경우 WAN에 걸쳐 확장될 수 있다.

오픈소스 Xen, VMware, Microsoft VS 같은 소프트웨어 shim들은 자원들을 감시하여 한 서버 내에 여러 게스트 운영체제가 상주할 수 있도록 한다. 가상머신 모니터 또는 “hypervisors”는 가상머신들 간에 자원들을 할당하며, I/O 요청을 물리적 디바이스 드라이버에 전달한다.

인텔과 AMD가 올해 초 내놓은 새로운 가상화 툴들은 마이크로프로세서 성능을 향상시키고, 게스트 운영체제들이 자신들이 “링 제로(ring zero)” 모드에서 실행되고 있다고 믿게 한다. 그러나 이 툴들은 I/O 요청들의 처리 속도를 올리는 데는 거의 하는 일이 없으며, 이것은 10GbE 채널들이 사용될 때 병목을 만들어낸다. Karvat 씨는 주변장치 칩셋 제조업체들이 전용 I/O 메모리 관리 장치를 개발함으로써 이 문제를 풀려고 하고 있지만 그러한 장치들은 2007년이나 2008년이 되기 전에는 샘플이 나오지 않을 것이라고 말했다.

NetSlice를 가지고 NetXen이 한 대답은 가상 스위치로 동작하는 소프트웨어 패키지를 만드는 것이다. 최대 1,024개의 가상 네트워크 인터페이스 카드들이 가상머신마다 독립적으로 만들어지고 관리될 수 있다. 각각의 가상 NIC는 다중 송수신 대기열을 지원하며, 여러 직접 메모리 액세스 엔진들은 I/O의 재매핑을 허용한다. 이 소프트웨어는 여러 유니캐스트 및 멀티캐스트 미디어 액세스 컨트롤 어드레스들을 지원할 수 있다.

TCP 오프로드 보드 제조업체 중 그 어느 곳도 가상머신 리매퍼(remapper)를 제공하지는 않는다고 Karvat 씨는 말했다. 따라서 NetXen은 칩 레벨과 보드 레벨 경쟁업체 모두보다 지속적인 I/O 이점들을 보여줄 수 있어야 한다. 이 소프트웨어는 현재 기존의 Intelligent NIC 고객들을 위해 공급되고 있다.

Karvat 씨에 의하면 보안이나 풀 프로토콜 스택 바이패스 같은 영역들을 커버하는 소프트웨어 스위트들이 2007년에 선보일 것이라고 한다.