由于操作过于频繁,请点击下方按钮进行验证!

新架构在单芯片中同时支持以太网和Infiniband

在前几年如火如荼的(暂不可见)热潮中,很多公司都看好Infiniband在数据中心互连中的应用前景。但在泡沫破灭之后,一些企业转而投资加速版以太网。目前来看,数据中心不大可能被统一到一种技术标准之上。但是,多种网络技术将汇聚于混合芯片之中的趋势却日渐明朗。

迄今为止,或许芯片级融合的最大标志是Mellanox Technologies公司近期所推出的ConnectX架构。该架构在一颗芯片中集成了对以太网和Infiniband的支持,还有限地支持光纤信道(Fibre Channel)标准。此举标志着这家Infiniband芯片公司的一个重大举措。

在数据中心领域狂赌多网络架构方案的并非仅仅Mellanox一家。早在去年11月,Infiniband交换机供应商Voltaire就宣布今年6月要交付使用也支持10Gbps以太网的高端交换机。该公司将采用其自有的ASIC来支持两个网络之间的桥接并在Infiniband上承载互联网协议(IP)。

顺应类似的发展趋势,光纤信道供应商QLogic公司近期兼并了Infiniband交换机制造商SilverStorm Technologies公司。2006年初,QLogic兼并了Infiniband卡制造商PathScale公司。

HP个人电脑服务器部的互连专家Michael Krause表示:“人们对融合之事众说纷纭,要转变为实际的产品环境可能要几年的时间,因为消费者是企业中一群吹毛求疵的人。”

Mellanox提供的90纳米ConnectX架构的首要目的,是让刀片服务器制造商利用单芯片方案来巩固对Infiniband和以太网的支持,这种单芯片也为光纤信道和iSCSI提供某种支持。“那就是主要的应用。”Mellanox公司的产品市场副总裁Thad Omura表示。

HP的Krause指出,符合10Gbps以太网的KR版本产品不久将上市。它们将使“刀片服务器内部的走线比传输10Gbps应用数据的Infiniband要少,”他说。

Mellanox透露,实际上所有顶级服务器制造都已经在其刀片服务器中采用了Infiniband。其中一些制造商甚至采用了数据率达20Gbps的互连,Omura说道。

今年初交付使用的基于ConnectX架构的产品将呈现若干特色。其中一款产品将仅仅支持10和20Gbps Infiniband,另一款产品将支持混合的10Gbps和20Gbps的Infiniband以及1Gbps和10Gbps以太网。今年晚些时候,Mellanox将交付使用基于ConnectX架构的40Gbps Infiniband适配器。

“我们拥有自己的10Gbps以太网MAC,并且我们使用的所有串并/并串转换器也都是自己开发出来的,我们希望所有的IP(知识产权)都由内部开发。”Omura说。

ConnectX芯片可以在Infiniband数据包中封包光纤信道指令。然而,他们需要一种从Infiniband到光纤信道的桥接以链接到本地的光纤信道存储网络。Omura暗示这样的产品今年将上市,但不愿意透露Mellanox将在何处生产。“在硬件中没有特别的光纤信道控制器,但采用了硬件机制来加速光纤通道协议。”他说。

会否牺牲性能?

一些观察人士指出,让一种协议—如IP或光纤信道—嫁接到另外一种协议之上可能会付出牺牲性能的代价。例如,IP-Over-Infiniband在一些实现方案中可能仅仅产生2到3Gbps的吞吐量;而即使考虑了编码开销之后,采用Infiniband链路仍然能够承载最多8Gbps的吞吐量。在以太网一侧,该芯片不支持TCP卸载。取而代之的是他们依赖于Infiniband模块第四层的远端直接存取能力。

当今年年初Mellanox在ConnectX芯片上展示40Gbps Infiniband链路时,其四速率Infiniband能力将具有低达1ms的延迟,比现有芯片的2.25μs有所下降。这种40Gbps器件的每端口功耗小于6W,并将于2008年初在系统中部署。

作者:麦利

声明:本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上所用视频、图片、文字如涉及作品版权问题,请第一时间告知,我们将根据您提供的证明材料确认版权并按国家标准支付稿酬或立即删除内容,以保证您的权益!联系电话:010-58612588 或 Email:editor@mmsonline.com.cn。

网友评论 匿名:

分享到