“人工智能是一种新的计算模式,因而需要一种新的架构。” -NVIDIA联合创始人兼首席执行官黄仁勋。
人工智能为人们带来前所未有的便捷和颠覆性体验的同时,人工智能计算的应用也对数据处理提出了空前的压力和挑战,为了满足人们对人工智能计算的需求,GPU加速器的强大助力显得尤为重要。
北京时间3月9日,NVIDIA与微软发布了一款新的超大规模GPU加速器,即将为人工智能云计算的加速发展起到重大作用。
NVIDIA与微软联合发布面向人工智能的行业标准级HGX-1超大规模GPU加速器
为超大规模数据中心提供更快速的人工智能发展路径
作为微软Olympus计划推出的开源设计产品,全新HGX-1超大规模GPU加速器将为超大规模数据中心提供更快速的人工智能发展路径。
正如20多年前ATX技术对个人电脑主板带来了深刻影响,HGX-1对于云端人工智能工作负载而言也将意义深远。它将打造一套推动该技术快速发展和应用的行业标准,以满足激增的市场需求。
这套全新架构旨在满足云计算在自动驾驶、个性化医疗、超人类语音识别、数据和视频分析以及分子模拟等领域的爆炸性需求。
NVIDIA联合创始人兼首席执行官黄仁勋表示:“人工智能是一种新的计算模式,因而需要一种新的架构。就像ATX标准实现了个人电脑的广泛普及一样,HGX-1超大规模GPU加速器也将进一步普及人工智能云计算。它将帮助云服务提供商们轻松采用NVIDIA GPU,满足人们对人工智能计算的需求。”
微软Azure硬件基础设施部门总经理和知名工程师Kushagra Vaid表示:“HGX-1人工智能加速器能够实现卓越的性能扩展,从而满足快速增长的机器学习工作负载。此外,独特的设计还使其能更轻松的部署到全球现有的数据中心。”
提供前所未有的可配置性和高性能
对于全球数千家投资人工智能,采用人工智能方法的企业和初创公司而言,HGX-1架构将自云端提供前所未有的可配置性和高性能。
该架构的每个机箱配有8个NVIDIA? Tesla? P100 GPU,独具特色地采用基于NVIDIA NVLink? 高速互联技术和PCIe标准的创新交换设计——这让CPU可以动态连接任意数量的GPU。因此,基于HGX-1实现标准化的云服务提供商们,将能为客户提供一系列CPU和GPU机器实例配置。
如今的云工作负载比以往任何时候都更加复杂多变。人工智能培训、知识推理和高性能计算工作负载应尽量在不同系统配置上运行,并通过单一CPU连接至多个GPU。面对任意工作负载,HGX-1的高度模块化设计都能确保最佳性能。相比传统的CPU服务器,它能提供速度提升100倍的深度学习性能,将人工智能培训成本降至五分之一,人工智能推理成本减少为十分之一。
HGX-1可以灵活地服务全球各个数据中心,为现有超大规模数据中心提供快速、简便的人工智能发展路径。
协同树立超大规模行业标准
微软、NVIDIA和Ingrasys(下属于富士康公司)共同构建和设计了HGX-1平台。这三家公司将广泛共享该平台,并成为微软Olympus计划对“开放计算项目”的贡献之一。“开放计算项目”是一个联盟项目,旨在将开放源代码的优势广泛应用于硬件,并加速以数据中心为主和相关的创新步伐。
参与更广泛的“开放计算项目”,共享参考设计意味着各企业能够在自己的数据中心轻松购买和部署相同的设计。
NVIDIA加入“开放计算项目”
NVIDIA已加入“开放计算项目”,以协助推动人工智能和数据中心创新。该公司将继续与微软、Ingrasys和其他成员保持合作,促进发展面向云服务提供商和其他数据中心客户的人工智能计算平台。
微信扫描二维码,关注公众号。