Mar 31, 2009

가정에서 사용하는 에너지의 12% 절감을 가능하게 하는 새로운 장치의 개발

KISTI 『글로벌동향브리핑(GTB)』 2009-03-28

한 해 동안 전기제품을 사용했을 때 발생하는 상대적인 비용은 전기제품의 스위치를 켰을 때 보다 전기적으로 준비단계인 스탠바이 상태에서 더 많이 든다고 한다. 이러한 스탠바이 상태가 전기제품을 가동했을 때의 시간보다 더 많은 시간을 보내게 되기 때문이라는 것이 전문가들의 설명이다.
2005년 유럽 위원회에서 수행한 연구조사에 따르면 스탠바이 상태에서 가정의 전기제품은 유럽에서 한 해에 50TWh만큼의 전기에너지를 소모한다고 한다. 이러한 수치는 그리스나 포르투갈과 같은 나라에서의 연간 전기에너지 소모량과 같다고 관계자들은 말하고 있다. 특히, 이산화탄소 2000만 톤의 배출과 연간 70억 유로로 전체 에너지를 나타낼 수 있는 양이다.

최근 개발된 제품(100% Off)은 자동적으로 전기제품의 스위치를 차단하고 스탠바이 상태를 반복함으로써 가정에서 사용하는 에너지의 12%를 절감할 수 있는 대안을 제공할 것이라고 한다. 유럽 국가 에너지위원회 보고서에 따르면, 스페인에서 가구당 평균 전기에너지는 한 해에 367유로를 사용한다고 한다. 이는 전기제품을 사용하지 않는 스탠바이 상태를 무시했을 경우에 44유로를 절감할 수 있다고 하는데 비교해볼 만한 수치라고 할 수 있다.

마드리스 소재의 Good For You라는 회사는 이러한 시스템에 대해 특허를 출원하였으며, 시판했다. 또한, 이러한 제품은 전기제품의 수명을 높이고 전력 과부하 현상을 방지하는 기능까지 갖췄다고 한다. 이러한 장치는 개별적인 전기제품들의 전력 소비를 제어함으로써 에너지 효율을 향상시키는 목적을 가진 연구 프로젝트로부터 시작하였다.
개발된 장치에 관련해서 스위치를 차단한 상태와 스탠바이 상태일 경우를 탐지하기 위해 가전제품에 의해 소비되는 잔류량을 측정하기 위해 마이크로프로세서가 개발되었으며, 스탠바이 상태와 전기제품의 일반적인 구동 시 소비되는 전류를 측정함으로써 전력 상태를 식별하는 수학적 알고리즘을 실행시키는 8비트 마이크로 프로세서가 제어를 하게 된다고 한다. 이러한 프로젝트의 관리자인 Miquel Teixido는 이러한 혁신적인 기술이 가정 내에서만 국한된 것이 아니라 밖에서도 효과를 볼 수 있을 것이라고 설명했다. 1%까지 이산화탄소 배출을 줄이고 10%에서 20%까지 거주에 필요한 전기소모를 잠재적으로 낮출 수 있다고 연구자들은 말했다.

이번에 새롭게 개발된 장치(100% Off)는 전기제품의 다중 연결을 위한 전력 연결 장치이며, 스탠바이 상태와 스위치 차단을 적절히 조절할 수 있게 구성되어 있는 형태로 개발되었다.이 시스템은 새로운 가정용 전기제품에 사용될 수 있으며, 더 나아가 미래에도 충분히 사용 가능할 것으로 보인다. 스탠바이 상태와 스위치 차단 상태가 필요한 어느 전기제품이든 앞으로의 에너지 절약에 필요한 기능이라 할 수 있다.

Gartner社, 클라우드 컴퓨팅(Clouding Computing)의 성장 전망 발표

KISTI 『글로벌동향브리핑(GTB)』 2009-03-28

IT 조사기관인 Gartner社의 조사에 따르면, 클라우드 컴퓨팅(Cloud Computing)이 향후 몇 년간 지속적인 강세를 이어나갈 것으로 조사되었다. 同社는 2013년경에 시장규모가 1천 5백억 달러에 달할 것이라고 예측했다. 현재 전세계 클라우드 컴퓨팅 서비스 시장 수익은 금년도 563억 달러를 돌파할 것으로 예측되는데, 이는 2008년 수익인 464억 달러에서 80%의 증가를 의미하는 것이다.

클라우드 컴퓨팅은 다양한 응용 프로그램들을 수용할 수 있는 잘 관리되고 높은 확장성을 갖는 추상화된 컴퓨팅 인프라의 집합이다. 이러한 개념은 유틸리티 컴퓨팅이나 서비스로서의 소프트웨어(SaaS, Software As A Service), 그리드(Grid) 컴퓨팅 개념들이 혼합된 개념이라고도 할 수 있다. 또한 PC나 기업의 서버에 개별적으로 저장해 두었던 프로그램이나 문서를 인터넷으로 접속할 수 있는 데이터베이스에 저장하고, 데스크톱 PC는 물론이고 노트북 PC, PMP, 스마트 폰 등 다양한 모바일 디바이스로 웹 브라우저 등 필요한 애플리케이션을 구동해 원하는 작업을 수행할 수 있는 이용자 중심의 컴퓨터 환경이다.

광고, 전자상거래, 인적 자원 및 지불 프로세싱 등을 포함하는 클라우드 기반의 비즈니스 프로세스가 이 시장에서 가장 큰 부분을 차지하는데 작년도에 전체 시장에서 83%를 차지하는 것으로 Gartner社는 추산했다. 이 분야는 2009년도에 약 20%의 성장세를 보일 것으로 예측되어 2008년 389억 달러에서 2009년 466억 달러에 달할 것으로 보인다.

Gartner社의 연구 부사장인 벤 프링(Ben Pring)은 클라우드 컴퓨팅은 폭넓고 다양한 현상을 수반한다고 지적했다. 성장의 상당부분은 기존 IT 서비스가 새로운 클라우드 모델로 이전하는 것을 의미하고, 새로운 비즈니스와 막대한 수익 기반이 창출되는 것을 나타낸다고 그는 말했다. 클라우드 컴퓨팅을 통한 시스템 인프라 서비스는 2008년 전체 시장에서 5.5%를 차지하였지만, 금년도에는 6%로 성장할 것으로 보인다. 그러나 2013년까지 이 부문의 성장은 크게 높아질 것이라고 프링은 말했다.

클라우드 컴퓨팅 관련 서비스의 성장세가 향후 2~3년간은 비교적 완만하겠지만, 전체적인 경제 상황이 개선된다면 클라우드 컴퓨팅의 효용에 대한 인식과 비용대비효용(ROI) 증가로 관련 부문에 투자가 증가할 것이라고 프링은 말했다.

IT 서비스 제공업체인 ThinkGrid社는 이에 대해 소비자들이 클라우드 컴퓨팅을 활용하는 것은 PC와 시스템에 대한 총 소유비용의 절감은 물론 효율성에 대한 인식이 크게 개선되고 있기 때문이라고 지적했다. 이러한 경향이 지속됨에 따라 IT에 대한 더 많은 선택과 유용성을 클라우드 컴퓨팅이 제공할 수 있을 것이라고 同社는 주장했다.

Mar 30, 2009

클라우드 서비스를 이용해 고용량 PC없이 최신 게임 구동을 가능하게 해주는 서비스 출시

KISTI 『글로벌동향브리핑(GTB)』 2009-03-27

캘리포니아의 Palo Alto에 있는 신설 기업인 OnLive는 게임 콘솔, 게임 판매업자, 그리고 더 이상 비싼 그래픽 칩을 살 필요를 없애기를 원한다. 3월 24일에 이 회사는 최고급 게임 시스템을 위해 전통적으로 많은 그래픽 용량을 필요로 하는 비디오 게임을 어떠한 컴퓨터에서도 동작시키는 서비스를 발표했다 (그림). 게임들은 텔레비전을 광대역 인터넷 연결을 연결해주는 회사에 의해 제공된 작은 기기를 이용해 TV 상에서도 플레이될 수 있다.

아이디어는 콘솔들 또는 데스크톱 컴퓨터들로부터 게임들을 분리시키는 것이라고 OnLive의 창립자이자 CEO인 Steve Perlman은 말한다. OnLive는 Rearden이라고 불린 실리콘 밸리 기반의 소기업의 성장을 돕는 업체로부터 분사하였다.

각각의 게임을 묘사하기 위해 필요한 강력한 계산은 원격으로 전문화된 서버에서 발생한다. 그러나 벤처의 성공에 중요한 것은 가장 강력한 그래픽을 필요로 하는 게임들 - 실시간 first-person shooter Crisis를 포함하는- 을 실시간으로 플레이어의 스크린에 묘사하기 위해 개발된 수많은 새로운 압축 알고리즘일 것이다.

Apple에서 QuickTime 비디오 압축 포맷 개발에 관여했던 Perlman은 "이러한 게임들을 구동하기 위해 고급 PC를 필요로 하지 않는다. 올 디지털(all-digital) 분산은 가정에서 하드웨어를 업그레이드할 필요가 절대 없을 것임을 의미한다"고 말한다.

인터넷을 통하여 비디오 게임들을 하는 아이디어는 물론 새로운 것이 아니다. Microsoft, Sony, Nintendo와 같은 회사들은 플레이어들이 광대역 연결 상에서 협력하고 경쟁하게 해주는 온라인 서비스를 제공한다. 그러나 이러한 게임들은 여전히 각 회사들의 게임 콘솔에 묶여있다. 인기있고, 광대한 멀티 플레이어 온라인 게임인 World of Warcraft는 인터넷 연결을 통해 플레이어의 컴퓨터에 콘텐츠를 보낸다. 그러나, 어떤 플레이어라도 알고 있듯이, 이 게임과 관련된 가장 큰 문제점들 중 하나는 플레이어들이 명령을 따라잡기 위해 스크린 상의 영상을 종종 기다려야 한다는 것이다.

"사용자는 여전히 World of Warcraft를 실행하기 위해 꽤 훌륭한 PC를 필요로 할 것"이라고 IBM의 게임 부분 CTO인 George Dolbier는 말한다. "사용자가 버튼을 눌렀을 때 게임이 더욱 즉각적으로 반응하도록 하기 위해 매우 신속한 응답성을 가질 필요가 있다; 큰 기술적인 문제는 사용자가 가정에서 버튼을 눌렀고 이것이 잠재적으로 수천 마일 떨어진 컴퓨터에서 실행되고, 시간지연이 있게 될 때"라고 Dolbier는 말한다. "그 문제를 해결하는 것이 Rearden이 한동안 적극적으로 해결해 오고 있었던 주요한 도전이었다"고 Dolbier는 덧붙였다.

Perlman은 OnLive의 압축 기술이 이 문제를 해결할 수 있다고 믿는다. 대부분의 게임 처리와 압축은 강력한 하드웨어가 상주하는 곳인 전문화된 그래픽 처리 유닛을 가진 데이터 센터 내부에서 발생한다. 여전히, 비디오 압축 방식에서는 출처에서 관찰자까지의 데이터를 압축하는 것만이 필요하지만, 비디오 게임에서는 서버가 다음 움직임을 계산할 수 있도록 출처에서 플레이어 그리고 반대로 다시 출처까지 양방향 압축이 필요하다. 특허받은 접근 방식에 대한 자세한 설명은 하지 않았지만, Perlman은 OnLive의 알고리즘이 플레이어가 사용하고 있는 통신망을 지속적으로 감시하는 피드백 루프로 구성되어 인터넷 트래픽의 불일치를 예측하고 조절하려고 노력한다고 말한다.

Dolbier는 사용된 압축 알고리즘이 최소한의 왕복 통신량을 가지고 프레임 단위의 변화를 예측하면서, 통신망상에 가능한 한 거의 정보를 보내지 않을지도 모른다고 말한다.

OnLive을 구동하기 위한 기본 구비 조건은 1.5Mbps 인터넷 연결이다. 그러나 고화질 스크린에서 서비스를 동작하기 위해서, 연결속도는 초당 적어도 5Mbps가 되어야 한다고 그는 말한다. OnLive는 이미 Electronic Arts, Ubisoft, Take-Two Interactive Software, Warner Bros. Interactive Entertainment, Epic Games 등을 포함하는 주요한 게임들 회사들과 협력관계 를 맺었다. OnLive는 샌프란시스코에서 열린 Game Developers Conference에서 3월 24일 16개의 타이틀을 시연하였다.

PC 또는 Mac에서 서비스를 이용하려면, 개인은 1MB짜리 프로그램을 다운로드할 필요가 있을 것이다. 디지털 텔레비전으로 OnLive를 사용하기 위하여, 사용자는 OnLive의 MicroConsole 기기를 필요로 할 것이다. OnLive는 고유한 게임용 컨트롤러를 제공할 것이지만, 일반적인 컨트롤러 또한 사용될 수 있다.

OnLive는 가입 서비스로서 제공될 것이라고 Perlman은 말한다. 사용자가 로그온 할 때, 사용자는 메뉴에 접속하여 대여, 구입 또는 시험 사용할 게임을 선택할 수 있다. 사용자는 다른 사람들이 플레이하는 것을 관찰할 수 있고 전세계의 다른 사람들과 함께 플레이할 수 있다. 다른 특징들로는 15초 동안의 플레이를 기록할 수 있는 기능과, 다른 사용자들과 이러한 "자랑할만한 동영상"을 공유할 수 있는 기능이 있다.

PC와 게임 콘솔에서 고가의 그래픽 카드의 필요성을 제거함으로써, OnLive은 "초기 비용 때문에 참가하지 않았을 사람들에게 극적으로 게임 시장들을 개방할 잠재력을 가지고 있다"고 Dolbier는 말한다. 게다가 OnLive는 그것이 Xbox, PlaysStation 3, Nintendo를 위해 주문 제작되는 대신에 오직 하나의 플랫폼으로 만들어질 필요가 있기 때문에 게임 제작 비용을 낮출 수 있다고 그는 말한다(단일 게임에는 일반적으로 수천만 달러의 제작 비용이 들 수 있다.). "시장을 확대하는 것은 훌륭한 아이디어"라고 그는 말한다.

Mar 18, 2009

Vendors begin to contemplate the silicon implications of USB 3.0

Mar 13 2009, EDN

Now that the USB 3.0 specification is out, we are starting to see public indications of CMOS designers contemplating the requirements. If you haven't been following along, USB 3.0 is a hybrid of sorts: a version of USB that uses essentially PCI Express gen2 signaling to achieve up to 5 Gbit/s raw data rates over media compatible with the connectors and cables of USB 2.0.

And therein lie the issues for chip designers, according to two vendors with whom we've spoken lately, mixed-signal IP vendor Snowbush IP and chip vendor SMSC. Makers of USB 3.0 silicon will be caught between the jaws of a rather nasty vice. On one hand, everyone assumes that anything with a USB label on it will be inexpensive—meaning minimal silicon real estate in a commodity process—and very low in power. On the other hand, employing PCI Express gen2 signaling over a USB-type cable is a very non-trivial undertaking.

Two different kinds of companies are targeting the USB 3.0 market, according to SMSC vice president of engineering Mike Pennell: companies with PCI-Express technology looking to broaden their market, and companies with USB experience seeking to stay in the game. Each brings its own expertise to the problem, and each will have its own challenges to work out.

Snowbush, with a portfolio of existing PCI-Express IP, fits in the former category. For that company, according to Snowbush general manager Ewald Liess, moving to USB 3.0 was a natural product line extension. The company has announced a full-duplex 5 Gbit PHY block based on their PCI-Express technology but compatible with the USB 3.0 spec. "The PHY spec is almost exactly PCI-Express gen2, even down to a modified version of the Pipe interface to the MAC," according to Snowbush director of sales Gary Ruggles.

The company is bringing some new ideas to this market, mainly aimed at trying to meet the low-cost/low-power issues head-on. One example is that rather than using silicon area for a tank-based local oscillator, the company has worked out a self-calibrating ring-oscillator VCO with an internal voltage reference. This design should deal with the considerable process variations customers will see at 65 and 45 nm, according to Ruggles.

Pennell, who gave an invited paper at ISSCC this year on the challenges of USB 3.0, emphasized not so much the similarities to PCI-Express gen2 signaling, but the differences in the physical media. He points out that because 3.0 is supposed to look and feel to users like a much faster version of USB, it will have an entirely different media environment than PCI-Express. Where the latter drives a few centimeters of circuit-board trace, a carefully-designed connector and a daughter card, USB's worst-case scenario will be up to 12 inches of board-trace, a connector pair, a short cable, a front-panel connector and cable connector pair, up to three meters of cable, and another connector pair. A USB 3.0 hub has to handle everything from that mess to a memory stick plugged directly into a connector on the circuit-board —a huge range of physical media.

To deal with this challenge, the standard calls for a fixed transmit pre-emphasis, and an adaptive receive equalizer with a long training sequence. It is not clear just how thoroughly the standards committee explored physical experiments to verify that the specified configuration could actually deal with all the legal configurations that might come up in the field. No doubt there was some lab work. But Pennell comments, based on his experience with the USB 2.0 standard, that a standards committee even with a good lab never anticipates everything that users can throw at you.

Given that uncertainty, Pennell is expecting that USB 3.0 silicon vendors will have to differentiate based on their chips' ability to deal with difficult media configurations. That will mean powerful adaptive equalizers and lots of intelligence in interpreting the training sequences. Unfortunately, the more capable you make your equalizer, other things being equal, the more power and area it consumes. So there could be room for some innovation there. In addition, according to Snowbush's literature, that company has implemented programmable transmitter pre-emphasis, which appears to go beyond the standard's requirements. So it's pretty clear that vendors are taking the media challenge seriously.

A downside here is that after the initial period in which USB 3.0 will sell at premium prices, some vendors may take the low-cost route at the expense of good signaling. That could result in end-users getting bad experiences with 3.0 hardware just as systems vendors are trying to popularize the interface. Think Bluetooth, for instance.

Another point Pennell makes is that there is a voltage problem. The USB 3.0 standard requires legacy support for USB 2.0. Most vendors will approach this with a separate piece of silicon, or at least a separate IP block, since 2.0 PHYs are pretty commodity now. But there is another challenge hidden in the legacy requirement. USB 2.0 uses 3.3V signaling—a voltage level that is not easy to achieve in a 65 or 45 nm process. Worse, there is the matter of the 5V power supply pin that must be present in the USB 2.0 interface. Because that wire is in the cable, both the 2.0 and 3.0 standards presently require that all the signals on the interface, including the high-speed 3.0 signaling pins, tolerate a dead short to +5V. That is probably going to require not only thick oxide, but custom transistor design in the pad ring of 65 nm and 45 nm chips.

So USB 3.0 is coming. There will be both off-the-shelf silicon and licensable IP available well in advance of the first deployments. But there should be a very interesting first couple of years as vendors work out just where to make the tradeoffs between die cost, robust signaling, and electrical durability.

Mar 16, 2009

서버 가상화를 통한 실제 효과를 거두고 있는 테스코사 사례

KISTI 『글로벌동향브리핑(GTB)』 2009-03-13

대표적인 슈퍼마켓 체인인 영국의 테스코사가 최신 블레이드 서버 기술과 가상화 기술을 통해 퍼포먼스를 향상시키고, 비용을 절감시키면서, 탄소배출까지 줄일 수 있는 새로운 대안들을 만들어내고 있는데, 이에 대한 동향에 대하여 다음의 기사를 통하여 살펴보고자 한다.

영국에서 가장 큰 본 슈퍼마켓 기업은 자사의 실시간 판매 시스템에 대한 업데이트와 HP ProLiant사의 BL680c G5 블레이드 서버 상에서 운영되는 Citrix XenServer를 가지고 주요 비즈니스 애플리케이션을 가상화하는 기술을 개발한 것이다.

이번에 이루어진 이러한 업데이트와 새로운 IT 인프라는 테스코사의 RTS 시스템의 용량을 약 75퍼센트까지 증가시키고 있는 것으로 조사되어 초당 1500개의 판매 관련 메시지를 처리할 수 있게 되었다.

본 작업은 본 기업의 전체 서버 인프라를 가상화시키고자 하는 본 기업의 계획에 있어서 중요한 이정표가 될 것으로 평가되고 있다. 본 프로젝트는 본 기업으로 하여금 기존에 운영하고 있는 데이터 센터를 기준으로 약 20퍼센트 가량 탄소배출을 감축할 수 있도록 하는 새로운 기회들을 제공하고 있는 것으로 나타나고 있다.

테스코사는 지속적으로 증가하고 있는 용량처리 문제에 대처하기 위하여 물리적 서버를 지속적으로 설치하기보다는 이러한 가상화를 통하여 비용을 절감하고 탄소배출의 효율성도 증가시킬 수 있도록 접근하고 있는 것으로 나타나고 있는데, 이와 동시에, 새로운 인프라를 설치함으로써 퍼포먼스 또한 크게 개선하고 있는 것으로 조사되고 있다.

테스코사의 UK IT 담당 관계자는 주요 가상화 공급업체를 대상으로 한 평가를 수행하여 Xen 기술에 강점을 가지고 있는 Citirx사를 낙점하였고, XenServer가 64비트의 애플리케이션을 대상으로 다양한 수준의 퍼포먼스를 공급하는 능력을 통하여 해당 라이선스 모델과 영국에 소재한 엔지니어링팀이 가지고 있는 우수성을 긍정적으로 평가한 것이다.

이러한 RTS 환경을 가상화함에 따라 기존에 사용하던 물리적 에너지의 절반도 못 미치는 에너지를 사용할 수 있게 되었고, 테스코사의 탄소 배출 또한 의미 있는 수준에서 감소하였고, 전기사용량도 크게 줄어든 것으로 관찰되었다. Citirx의 선진 가상화 관리 라이선스 기술이 패킷단위로 요금을 부과하는 대신에 서버 단위로 요금을 부가하였고, 추가적인 블레이드 서버 사용에 따른 부담감도 덜 수 있게 되었다.

더 효율성을 가지고 운영 관리 환경을 개선시키는 것이 가능하다고 테스코 측은 언급하고 있는데, Citrix사와 HP사와 공동으로 협력하는데 있어서 나타나고 있는 주요 목표는 더욱 유연한 IT 인프라를 만들어, 합병에 따른 이익을 증가시키는 것이라고 이번 구축방향을 설명하고 있다.

테스코사는 주요 서버 통합 프로젝트에 이러한 XenServer를 배치할 계획을 가지고 있고, 통합화 작업을 통한 물리적 서버와 가상 서버의 비율을 10:1까지 달성하여, 서버당 약 70퍼센트의 CPU 사용 효율을 달성할 계획을 추진하고 있다.


http://www.itpro.co.uk/