Sep 12, 2007

I/O Bus 기술동향

1. I/O 기술의 진화

컴퓨터를 구성하는 프로세서, 메모리, 주변기기들을 서로 연결해 시스템이 원활하게 돌아갈 수 있도록 데이터 전송 통로 역할을 수행하는 버스는 CPU의 처리 속도에 비하여하위 호환성을 이유로 매우 더디게 발전되었다.

[그림 1] 전송대역폭의 변천

컴퓨터는 현재 여러 종류의 버스를 가지고 있으며 현재 대부분의 PC에는 적어도 3 종류 이상의 버스를 가지고 있다. 또한 각각의 디바이스 들도 반드시 버스에 연결되어 있어야 한다. 칩셋들은 이러한 버스들 사이에 브릿지 역할을 수행한다. 현재 시스템에서사용하는 버스는 크게 프로세서 버스, AGP, PCI, ISA 등이 있다.

프로세서 버스
시스템에서 가장 빠른 버스로서 메인보드, 메모리와 칩셋의 중간에 위치하게 된다. 주로 프로세서가 정보를 통과할 때 사용되며, 노스 브릿지에서 관장한다. 일반적인 시스템의 프로세서 버스는 66/100/133MHz에서 동작하며, 데이터 폭은 64비트이다.

AGP 버스
66MHz의 고속버스. 비디오 카드를 위해 특별히 고안된 32비트 버스이며 노스 브릿지와 직접 연결된다.

PCI버스고성능 컴퓨터 시스템에서 흔히 볼수 있는 33MHz의 32비트 버스. 노스 브릿지에연결되며 PCI 컨트롤러에서 조절한다.

ISA 버스
8.33MHz의 16비트 버스. 사우스 브릿지에 연결되고 저속 기기들에 주로 사용된다.

1.1. ISA(Industry Standard Architecture) 버스 방식
컴퓨터에 사용하는 버스는 호환성을 위해서 표준화 되어야 하며, 일반적인 확장 버스의규약에는 물리적, 전기적 규약과 타이밍, 프로토콜 등이 포함된다. 버스 개념이 최초로 도입된 것은 1970년대 후반 8080 계열의 시스템이 시장에 첫선을보이면서부터다. 81년 오리지널 IBM PC에 8비트 ISA 버스가 도입되기 전까지 PC 시스템에는 다양한 방식의 버스가 사용됐으며, 대표적으로 핀수가 100개였던 S100 버스등이 있다. ISA 버스는 얼마전까지 대부분의 메인보드에서 기본적으로 갖추고 있는 만큼 호환성이 뛰어나지만, PCI 버스에 비하여 성능이 떨어지는 문제로 인하여 현재 거의사용되지 않고 있다. 또한 ISA 버스는 어드레스나 인터럽트 설정을 사용자가 스스로 조절해야 한다. 또 중요한 시그널 값들의 경우 클럭의 변화가 확실히 끝나지 않으면 진행과정에서 검출하지 못하기 때문에 안정성이 떨어진다. 이외에도 메모리 어드레싱 범위의 한정과 인터럽트 제어가 부실한 것도 ISA 시스템의 단점으로 볼 수 있다. ISA Bus 방식의 특징은 다음과 같다.
- 8MHz의 16비트 데이터 전송- CPU의 클럭이 높은 주파수에서는 왜곡이 심하다.
- DRAM의 리프레쉬로 인한 과도한 전류 때문에 잡음이 많이 생긴다.
- 어드레스 공간 확장에 따른 DMA 공간확장이 제한적이다.
- CPU와 시스템 버스 사이의 속도차이로 고해상되 그래픽등 많은 양의 데이터를필요로 할 경우 병목현상이 발생된다.

1.2. MCA(Micro Channel Architecture) 버스 방식
IBM의 시스템에 ISA 버스를 도입한지 얼마되지 않아 심각한 문제가 발생되었다. 64KB 이상의 메모리 사용을 제한했음에도 불구하고 1MB 한계를 유지 하지 못했기 때문이다. 프로세서의 속도 역시 4.77MHz에서 810MHz이상으로 빨라졌으며, 메모리도 빠른 속도로 개선되었다. 이에 따라 IBM은 빨라지는 프로세서 속도에 발맞추기 위해 ISA 버스를 8비트에서 16비트로 확장했으며, 메모리 확장에 대비해 어드레스 범위를 16MB까지연장하는 방법을 제시했다.그러나 16비트로의 버스 확장도 장기적으로는 ISA 버스의 한계를 극복하는 데 도움이되지 못했다. 최고 전송률 2.55MB/s의 버스로는 기껏해야 초당 수백만개의 명령어를처리할 수 있는 프로세서를 감당할 수 있는 정도였기 때문이다.그 결과 IBM은 당시 ISA 버스 문제의 해결방안을 전혀 새로운 방식의 버스를 도입하는 결론에 이르게 되었다. 1980년대 말부터 PS/2 시스템에 채택되기 시작한 MCA 버스는 다음과 같은 특징을 갖고 있다.
- 32비트 데이터 폭
- 32비트 어드레싱
- 버스 마스터링의 충실한 지원
- 자동 설정기능

그러나 MCA 방식은 ISA 방식보다 훨씬 고가였을 뿐만 아니라 호환성에도 문제가 발생하였다. 결국 기술적인 장점에도 불구하고 MCA는 시장에서 실패하게 된다. 이것은극소수 업체들만의 IBM에서 라이선스 계약을 체결했기 때문이기도 하며, 궁극적으로MCA 시스템을 주로 판매한 업체도 IBM뿐이었기 때문이다.

1.3. EISA(Extended ISA) 버스 방식
인텔의 32비트 CPU인 80386을 위한 컴퓨터가 개발되면서 더 빠른 전송속도를 갖는버스의 개발이 필요해지자 AST, HP, NEC, 컴팩, 엡손등의 업체들은 ISA 버스와의 호환 가능한 EISA를 공동 개발하였다. EISA 버스는 ISA의 16비트 한계를 극복하고 IBM사의 MCA 방식에 대항하는 32비트 확장 규격 버스로서 다음의 특징을 갖는다.
- ISA 호환 구조- 32비트 I/O 구조
- 33MB/s의 전송률 지원
- DMA 속도 개선- 강화된 버스 마스터링 지원
- 인터럽트 공유

EISA는 ISA 버스의 문제점을 효율적으로 극복하기는 했으나 가격 문제를 해결하지 못하고 시장에서 실패한다. 더욱이 1980년대말의 시스템 성능이 EISA 버스의 기능을 활용할 수 있을 정도로 발전하지 못했기 때문에 문제를 가중시켰다.

1.4. LOCAL 버스 방식
32비트 PC에서 ISA버스는 16비트의 데이터를 전송하므로 CPU처리를 주변기기에서따라갈 수 없는 문제가 있었다. 이 문제는 CPU는 486이라 해도 주변기기는 286급에비해 성능의 향상은 기대할 수 없다. EISA 나 MCA와 같은 32BIT 버스를 사용하면 되나 이들의 가격이 워낙이 고가이기 때문에 사용에 어려움이 많았다. 또한 모든 데이터처리가 단순한 텍스트처리 기반에서 그래픽을 위주로 하는 처리로 정착되었으며, 그에따라 정보량도 증가하여 보다 CPU의 빠른 속도를 뒷받침해 줄 빠른 주변기기들이 필요하게 되었다. 이러한 문제점을 해소하기 위해 개발된 것이 로컬버스 개념으로 32bit 데이터 폭으로 CPU에 직접 연결할 수 있게 버스의 속도를 CPU의 외부 연결용 프로세서 버스 속도에 맞추어 최고 40MHz까지 지원하도록 하였다. 이는 CPU의 로컬버스에물리적으로 논리적인 방법으로 직접 주변장치를 연결하여 CPU와 같은 속도로 데이터를 처리할 수 있는 기술이다.

1.5. VESA(Video Equipment Standard Association) LOCAL 버스 방식
ISA버스를 사용할 경우 비디오카드, IDE카드, 랜카드등의 데이타의 병목 현상이 심해진다. 결국 CPU만 빠르고 주변기기는 따라오지 못해서 시스템의 성능에도 영향을 미치게되는 현상이 생기며 이를 막기 막기 위해서 비디오 칩 제조업체인 AMD, C&T, 쳉랩스, 바이텍, AT, S3 등이 연합하여 92년에 규정한 방식이 VESA LOCAL 방식이다. 발표될 때만 하더라도 VESA LOCAL 버스 방식은 기존의 ISA 방식과 거의 완벽한 호환성을 유지한다는 점과 비교적 저렴한 가격으로 성능 향상을 꾀할 수 있다는 장점 때문에 차세대를 주도할 버스 방식이라고까지 기대되었으나 VESA LOCAL 버스 방식은이 방식의 장점이라고 할 수 있는 버스 마스터링 모드 때문에 오히려 성능이 제한될 수밖에 없는 상황이되었다. CPU가 모든 것을 제어하는 것을 슬레이브 모드라고 한다. VESA LOCAL 버스가 I/O 버스 마스터링 모드를 처리하는 동안에는 CPU가 대기하는 시간이 필요하게 된다. 그래서 그 동안은 비디오 컨트롤러로 가는 데이터가 처리되지 못하고 적체 현상을 일으킨다. 이러한 적체현상으로 인해 VESA LOCAL 버스를 통해서 주변기기를 많이 연결하면 그만큼 CPU의 대기 시간이 길어져서 데이터의 처리속도가 떨어지게 되는 것이다. 그 때문에 VESA 규격에는 VESA LOCAL 버스를 최대 3개로 제한하고 있다. 또 VESA 방식의 주변기기도 최대 3개 밖에 연결 하지 못한다. 그리고 CPU와 직접 연결되기 때문에 CPU의 외부 동기속도와 맞아야 하는데 과거 486 CPU는 486DX2-66의 외부 버스속도가 33MHz, 486DX2-50이 25MHz, 486DX-40이 40MHz이므로 VESA LOCAL 버스 규격인 최대 속도 40MHz와 같거나 맞을 수 있었다. 하지만 펜티엄 CPU는 외부 버스 속도가 66MHz이므로 VESA LOCAL 버스 40MHz로는 지원이 불가능하다. Mezzanine이라고 부르는 VESA LOCAL v.26인 4bit VL 2.0이 나오더라도 버스 속도는50MHz까지 지원되므로 외부버스속도가 66MHz인 펜티엄에는 사용할 수 없다. 그래서 결론적으로 말하면 베사로컬 버스는 486용이라는 것이다. VESA LOCAL 버스 방식이갖는 특징은 다음과 같다.
- ISA / EISA와 호환을 고려한 기능 확장- 32비트의 I/O구조
- 33MHz 버스 클럭- 최대 지원 디바이스 수 : 3개

1.6. PCI(Peripheral Computer Interconnect) 버스 방식
1992년에 인텔에서 VESA LOCAL 버스보다 뛰어난 버스 방식이라는 점을 주장하면서독자적인 버스 구조로 PCI를 발표하였다. PCI 버스는 인텔에서 개발을 주도하여 현재로는 인텔(Intel)의 펜티엄 칩셋과 인터페이스가 되는 유일한 디자인이다. 인텔에서는 개발 초기에 관련 업체에 기술을 공개하고 지원하였다. 그래서 PCI 주변 장치의 확장에있어서는 베사로컬 버스 방식에 비길 데 없는 완전한 호환성을 보장하고 있어서 PCI는펜티엄 시대의 대표적인 버스가 된 것이다. PCI는 CPU에 직접 부담을 주지 않도록CPU와 PCI 버스 사이에 PCI브리지를 설치하여 CPU와는 별개로 동작하도록 되어 있다. 그래서 PCI 버스에 연결되는 확장 슬롯도 10개까지 확장이 가능하다. 기존 ISA,VESA버스 방식으로 된 주변 장치와의 호환성 때문에 버스 전체를 PCI로 구성한 메인보드는 아직 흔하지 않다. 그래서 요즘 출시되는 PCI 보드는 ISA나 EISA 또는 베사로컬 버스를 혼합(12개)하여 구성하고 있다. 비디오 카드나 E-IDE 인터페이스 카드 등은 이미 PCI용으로만 개발되어 출시되고, ISA용 카드들도 PCI로 서둘러 옮겨가고 있다.처음 인텔(Intel) 에서 PCI 버스를 개발하게된 동기는 펜티엄 때문이었다. CPU가 데이터 처리를 할 때의 데이터 폭은 486에서는 32bit로 처리해서 외부로도 32bit로 전송한다. 그러나 펜티엄은 64bit로 처리해서 외부로 64bit로 전송한다. 그래서 PCI는 33MHz의 속도에 32bit로 데이터를 전송하지만 CPU와의 사이에 PCI 브리지라는 컨트롤 장치를 두고 있기 때문에 CPU의 데이터 폭이나 속도와는 상관없이 동작할 수가 있다. 그런데 PCI라고 모두 같은 것은 아니다. 486용과 펜티엄용은 칩셋이 서로 다르기 때문이다. CPU와 칩셋 간을 연결하는 프로세서 버스는 486 메인보드에서는 32bit 통로로 되어있고 펜티엄은 64bit의 통로로 되어 있고 프로세서 버스의 속도도 다르다. 펜티엄 PCI에사용하는 것은 430VX, HX, TX칩셋으로 64bit프로세서 버스를 지원하고 있다. PCI 버스 방식이 갖는 특징은 다음과 같다.
- CPU 와 버스마스터의 동시 동작 : CPU 는 주변장치의 동작과는 무관하게작업가능
- 멀티미디어 컴퓨팅 환경에서 유리
- 기존의 메인보드나 주변장치의 설계를 대폭 변경해야 함
- 비디오데이터 처리 효율적 지원- 32 비트의 I/O 구조
- 32MHz 버스클럭
- 최대 지원 디바이스 수 : 10 개

2. 차세대 버스 구조
인터넷 시대에 접어들면서 많은 서버 머신들은 수천, 수백만개의 인터넷 사이트, 인트라넷 등으로 언제든 전송가능한 데이터를 저장하고 관리해야 하는 요구를 받고 있다. 그러나 PCI 버스로 구축된 내부 시스템 버스들은 이런 기가 비트급 대역의 데이터를처리하기에 역부족이 되고 있다. 인텔은 이런 PCI 버스가 갖고 잇는 내부 칩셋간의 데이터 전송량 한계를 극복하기 위해 ‘허브링크(Hublink)’라고 불리는 노스브리지와 사우스브릿지를 자체 시스템 버스로개발했다. 이를 자사의 800계열 칩셋에 적용시켜 멀티미디어 애플리케이션 분야를 보강했으며, 비아, SIS 등 칩셋 회사들도 각각 고유의 내부 시스템 버스들을 구축했다.
[표 1] 컴퓨터 시스템 버스 대역폭 발전 추이

실제 컴퓨터 시스템 내부에서의 전송대역폭은 계속되는 업그레이드를 통해 상호간 대역폭 차이로 인한 정체 현상이 발생하지 않도록 하고 있다. 표 1은 일반적인 PC 시스템에서의 전송 대역폭이 최근 몇 년 사이에 어떻게 변화되어왔는지 정리한 것인데, PCI 버스만은 변화정도가 적다고 할 수 있다. 표 1에서 알 수 있듯이 CPU, 메모리, 그래픽버스등은 계속적으로 자체 전송 대역폭을 보완했고, 저장 장치 분야에서는 UDMA라고하는 DMA 확장 방식을 하드디스크에 접목시켜 왔다. 확장 카드 슬롯인 PCI 버스만 제외하고 보면 대부분 10배정도의 데이터 전송능력이 확장되었음을 알 수 있다. 물론PCI 버스가 PCI-X 버스로 확장된다면 전송능력의 8배까지 확대 가능하지만, 이전의VESA LOCAL 버스와 마찬가지로 전기적인 제약사항이 있을 것으로 예측된다.

[그림 2] 차세대 I/O 기술

차세대 버스 규격으로서 인피니밴드(InfiniBand)는 인텔, 델, 히다찌, 썬 마이크로시스템스, HP, IBM등을 중심으로 제안되고 발전되어 왔다. 서벗와 서버 또는 서버와 저장 시스템간에 연결통로에 있어 특화된 데이터 센터로서의 역할을 담당하는 추세를 보이고있다. 또한 인텔, 컴팩, HP, 마이크로소프트에 의해 형성된 새로운 컨소시엄은 3세대 I/O라불리는 3GIO 버스를 제안하고 있다. 모토롤라의 RapidIO 버스는 원래 임베디드 시스템에서 사용하기 위한 고성능 시스템 버스로 제안되었다. AMD의 하이퍼트랜스포트(HyperTransport)도 네트워크나 임베디드 시스템에서 발전되기 시작했으나 애플리케이션 특화된 I/O버스를 만들 때 다른 버스 방식 보다 더 많은 부가가치를 제공할 수 있다.

[그림 3] I/O 기술의 성능 진화

2.1 PCI-X 버스
1998년 10월 PCI SIG는 기존 PCI 버스가 갖고 잇는 대역폭의 한계를 극복하고자PCI-X 버스에 대한 스펙과 성능에 대한 평가를 진행하기 시작했다. 컴팩, 델, 게이트웨이 등 주요컴퓨터 업체들의 주도적 작업하에 3Com, 아답텍, AMD 등 업체들이 합류해PCI-X 버스에 대한 확장 스펙을 만들기 시작했고, 1999년 10월 PCI-X 버스 스펙을확정 발표했다. CPU의 동작 주파수가 최소 1GHz급 이상으로 올라간 요즘엔, 33MHz의PCI 동작 주파수로 고용량, 고속의 데이터를 전송하기엔 부족했다. 이에 PCI SIG 그룹은 66MHz 동작 주파수의 버전 2.2 업그레이드 PCX-X 규격을 확장했다. 많은 서버 업체들은 현재 PCI-X 버스를 활용해 고성능 전송이 필요한 애플리케이션 등에 일부 사용하고 있다. 차세대 고속 버스의 계승자로서의 자격을 평가하자면 현재의기술 수준에서 가장 손쉽게 접목이 가능한 기술이라고 할 수 있다. 또한 기존 소프트웨어 코드를 그대로 사용하기 때문에 시스템 내부적으로 하드웨적인 추가 설계만 보강된다면 PCI-X 버스를 활용하는 일을 매우 효과적일 것으로 예측된다.

2.2 인피니밴드(InfiniBand) 버스
2000년 10월 IBTA(InfiniBand Trade Association)에 의해 제정된 인피니밴드 버스는인텔, 델, 히다찌, 썬 마이크로시스템즈에 의해 제안된 NGIO(Next Generation I/O) 버스와 컴팩, HP, IBM, 3Com에 의해 제안된 퓨처아이오(Future I/O) 버스가 합쳐진 방식이다. 2002년 하반기를 기점으로 인텔, IBM등 업체들이 인피니밴드를 채택한 제품을출시할 예정이다. 기본적으로 인피니밴드 버스가 갖고 있는 설계목표는 분산 시스템에서 각각의 기능성장치들이 서로 다른 인터페이스를 통해 연결되던 방식을 하나의 통일된 커넥션을 통해단일망으로 구축시켜주는 것이다. 이와 동시에 고속이면서도 서로 간섭받디 않는 패킷전송방식을 갖도록 해 준다.인피니밴드 방식의 등장으로 인해 보다 모듈화됨에 따라 분산 지향적인 시스템 아키텍쳐 업계에서 이방식은 차세대 I/O 버스로서 각광받기 시작했다. 이는 IT 매니저들에게대단히 중요한 네트워크 모델로서, 기가비트급 이더넷과 함께 통신망 구축의 주요 아키텍쳐를 형성하고 있다. 이런 고속의 버스방식은 I/O 장치들간 또는 서버와 저장 장치간프로토콜 구축과 서버 상호간 통신용 채널을 확정하는 데 있어 가장 적합한 I/O 버스로주목 받고 있다. 뿐만 아니라 광 채널, PCI-X, 서버넷 등 기존 전송방식과 상호 결합과정에서도 호환 문제가 거의 없는 것을 알려져 있다.

2.3 하이퍼트랜스포트(HyperTransport) 버스
하이퍼트랜스포트라고 일컬어지는 I/O 링크 방식은 1997년 AMD에 의해 개발됐으며, 주로 LDT(Lightning Data Transfer)라는 코드명으로 불리는 경우가 많았다. 고속 전송, 고성능, 포인트 링크 방식을 표방하는 새로운 버스 방식으로, 한쌍의 신호라인을 통해최대 1.6GHz까지 동작돼 전송 데이터 대역을 최대 12.8GB/s까지 가능하게 해 준다. 인피니밴드방식이나 기가비트급 이더넷의 보완적인 형태로 업계에 제안, 발표되었다.지금까지 비아, SIS, 인텔등 칩셋 회사들은 주로 PCI 버스에 의존해온 시스템 내부 버스의 대역폭 확장 요구를 충족시키기 위해 각사 고유의 링크 시스템을 개발해 대역폭한계를 극복해왔다. 이런 상황에서 AMD도 하이퍼트랜스포트라는 내부 시스템 버스 방식을 발표해 다른 칩셋 업체들의 버스 방식보다 효율적이고, 고대역인 I/O 링크 버스의장점을 부각시키기 시작했다.하이퍼트랜스포트는 시스템 내부 버스에 있어 I/O 전송대역폭의 정체 현상을 해결해 줄수 있는 내부 시스템 버스의 차세대 주자중 하나이다. 기 서술된 다른 칩셋 회사들의내부 링크 버스와 달리 오픈 아키텍쳐를 표방하고 있기 때문에 어느 시스템이라도 내장할 수 있는 가능성은 대단히 높다. 이런 오픈 아키텍쳐로 인해 엔비디아의 최근 발표된시스템 칩셋들도 내부 I/O 링크 버스를 하이퍼트랜스포트로 설계했다. 적은 라인에 의한 버스 방식이지만 고대역, 고성능 전송 능력을 갖추고 있다는 장점은 시스템 내부 설계상 집적도라는 과부하 문제가 발생하지 않는 최적의 효율성을 제공한다는 것이다.

2.4 래피드아이오(RapidIO) 버스
네트워크 또는 통신 분야의 전송 능력을 높여주기 위해 제안된 래피드아이오 버스 방식은 2001년 3월 스펙을 발표한 이후 일부 임베디드 시장을 중심으로 디자인 되기 시작했다. 포인트 대 포인트 방식과 패킷 스위치 연결방식 특징을 가질 뿐만 아니라 프로세서, 메모리 또는 메모리 할당 방식의 I/O 인터페이스에 적합하도록 기능적 구조가 잘짜여진 내부 I/O 시스템 버스이다.이런 기능적 구조를 갖는 네트워크 장비에서 래피드아이오는 주로 제어판의 성능과 효율을올려주는 역할을 하게 된다. 인피니밴드나 래피드아이오 버스는 대체로 통신, 네트워크 서브 시스템 분야에서 사용하게 되는데 래피드아이오는 시스템 내부의 연결망에, 인피니밴드는 서브 시스템간의 외부 연결망에 주로 적용된다.래피드아이오 버스의 전기적인 특성은 IEEE 1596.3 LVDS 규격을 바탕으로 해 노이즈특성이 뛰어난 차동 신호를 사용한다. 이로써 250MHz 부터 최대 1GHz까지 동작 주파수를 동기로 해 전송방식에 따라 8비트 또는 16비트 데이터를 전송한다. 각 디바이스들은 송신용 신호 라인과 수신용 신호라인 그룹을 별도로 마련해 데이터를 송수신하고있으며 데이터 전송시 송신측의 클럭에 동기화되는 프로토콜을 사용하고 있다.

2.5 3GIO(Third Generation I/O) 버스
3세대 I/O라 불리는 3GIO 방식은 인텔과 PCI SIG의 발빠른 대응에 힘입어 인텔 칩셋기반의 PCsk 서버 플렛폼에서 PCI 시스템 버스를 대체하는 차세대 I/O 시스템 버스의확장된 성능과 기능을 보여주려 하고 있다. 3GIO 방식이 시리얼 PCI라고 불리는 이유는 PCI 버스 방식의 모든 기능을 포함하면서 시리얼 버스 방식으로 제공되기 때문이며, 이런 기술적인 호환성 유지 배경은 많은 업계로부터 관심과 후광을 받는 계기가 되었다.다른 I/O 버스보다 늦게 시작한 탓으로 버전 1.0에 대한 스펙 검토가 2002년 1/4분기까지 진행된 후 2002년 중반을 전후해 확정 스펙이 발표될 예정이다. 그러나 다른 버스 방식보다 뛰어난 성능과 효율적인 버스 설계 대역폭을 제공할 수만 있다면 우수한차세대 버스가 될 수 있다.

[표 2] 각 버스 방식의 전송속도 비교

3. 향후 기술 방향에 대한 고찰
최근 PCI-X 버스를 비롯해 PCI 버스를 대체할 수 있는 차세대 I/O 버스들이 컴퓨터아키텍쳐의 표준으로 인정받기 위해 많은 노력을 기울이고 있다. 그러나 근본적으로 고성능 고대역 시스템 버스의 탄생은 컴퓨터 아키텍쳐 기반에서 데스크톱이나 서버의 일반적 호환을 유지하면서 제안되어야 할 것이다.차세대 버스를 각광받기 위해선 현재의 몇가지 문제점을 극복할 뿐만 아니라 향후 확장기능에 대한 부가 가치도 제공해 줘야 한다. 첫번째 갖춰야 할 요소는 전송대역폭의 충분한 통로를 제공해야 한다는 것이다. 두번째 요소는 대역폭을 늘리기 위해 단순히 전송블럭의 크기만 키워서는 안된다는 것이다. 데이터 비트수를 확장하는 것도 전송대역폭을 올리는 방법 중 하나일 수 있으나실제 설계신 고려해야 할 변수등을 감안해야 한다. 그래서 병려방식의 데이터 전송보다직렬또는 혼합 방식을 사용하고 있다.마지막으로 원가에 대한 부담이다. 일반적으로 기술적인 변혁이 있을 때마다 가격 상승도 함께 수반되는 것이 당연한 형태이지만 현재의 컴퓨터 산업은 오히려 가격이 내려가야 하는 기현상을 보이고 있다. 결국 소비자들의 생각은 기초기술이 발전하면 성능 개선뿐만 아니라 가격도 함께 낮아지는 것이라고 믿기 때문이다.과거와 달리 미래의 사용자들은 지금보다 월등히 앞선 기술적 논리를 바탕으로 새로운기능에 대한 평가를 해 나갈 것이다. 이런 상황에서 성능과 속도의 개선은 컴퓨터 업계가 짊어져야 할 일차적인 목표일 뿐만 아니라 추가 비용 문제에 대한 고민도 줄여줘야하는 부차적인 목표를 갖고 있다.[그림 4] I/O 버스 기술 요약

[그림 5] I/O 버스 기술 마크로맵

출처 : 전자부품연구원 2002.2