简体中文 | 繁體中文 | English

M/Mellanox75

Mellanox为中科院新一代基于GPU的千万亿次级超级计算机提供同类最佳性能

2010-05-24 20:30
  • zh_cn
  • zh_hant
  • en

采用GPU-Direct技术的Mellanox 40Gb/s InfiniBand支持最快的GPUGPU通信;加速系统效率

加州桑尼维尔和以色列Yokneam--(美国商业资讯)--为数据中心服务器和存储系统提供高性能端到端连接解决方案的领先供应商Mellanox® Technologies, Ltd.(纳斯达克股票代码:MLNX;特拉维夫证交所代码:MLNX)今天宣布,该公司采用GPU-DirectTM技术的ConnectX®-2 40Gb/s InfiniBand适配器、采用FabricITTM光纤管理软件的IS5600 648端口交换机和光纤电缆将为中国科学院过程工程研究所(IPE)的Mole-8.5系统提供世界领先的网络与应用加速。Mole-8.5系统是中国首台千万亿次级(Petaflop)GPGPU超级计算机。目前,过程工程研究所正在使用Mole-8.5在化学工程、材料科学、生物化学、数据与图像处理、石油开采与采收率以及冶金等领域开展科学模拟。

过程工程研究所王小伟博士表示:"通过将Mellanox 40Gb/s InfiniBand与GPU-Direct技术相结合,我们得以使用GPU开展科学模拟,其性能水平是使用其他互连方式绝不可能实现的。新的Mole-8.5 Petaflop群集具有业界领先的互连性能与效率,使得我们能够缩短运行科学发现过程中至关重要的应用程序所需的时间。"

Mole-8.5系统旨在在实际应用中以较低的安装与功耗成本实现高效率。通过利用采用GPU-Direct技术的Mellanox InfiniBand,GPU能够以更快的速度计算,从而提高运行在Mole-8.5上的应用程序的性能。Mellanox InfiniBand的系统利用率高达96%,使用户的高性能计算服务器和存储架构能够获得最大的投资回报。

Mellanox Technologies营销副总裁John Monson表示:"我们很高兴地发现越来越多的世界领先的超级计算机采用Mellanox 40Gb/s InfiniBand交换机、适配器和电缆解决方案。过程工程研究所已经利用Mellanox延迟最低的交换机和适配器性能、传输卸载和GPU-Direct应用加速,让其HPC应用能够以最高的效率实现最佳性能。"

Mellanox的端到端InfiniBand连接包括ConnectX®-2 I/O适配器产品、电缆与齐全的IS5000固定与模块交换机系列以及光纤管理软件,提供业界领先的性能、效率和成本节省,以在性能互连方面实现最佳投资回报。Mellanox为全球客户提供针对全球对计算要求最为苛刻应用的最齐全、最先进和性能最高的端到端网络解决方案。

 

配套资源:

 

关于Mellanox

Mellanox Technologies是服务器和存储端到端连接解决方案(可优化数据中心性能)的领先供应商。Mellanox产品提供市场领先的带宽、性能、扩展性、节电和成本节约,同时将多种旧网络技术会集到一个具有前瞻性的无忧解决方案中。Mellanox是《财富》500强数据中心和全球功能最强大超级计算机的理想之选,可提供最佳的性能和扩展性。Mellanox Technologies于1999年成立,总部设在美国加州的圣塔克拉拉和以色列的Yokneam。如需更多详情,请访问Mellanox网站www.mellanox.com

Mellanox、BridgeX、ConnectX、InfiniBlast、InfiniBridge、InfiniHost、InfiniRISC、InfiniScale、InfiniPCI、PhyX和Virtual Protocol Interconnect均为Mellanox Technologies, Ltd的注册商标。CORE-Direct、GPU-Direct和FabricIT是Mellanox Technologies, Ltd的商标。所有其它商标均为其各自持有人的财产。

 

免责声明:本公告之原文版本乃官方授权版本。译文仅供方便了解之用,烦请参照原文,原文版本乃唯一具法律效力之版本。

 

联系方式

Mellanox Technologies
Brian Sparks, 408-970-3400
media@mellanox.com

 

分享到: