英伟达和微软今天公布了一种新的超大规模GPU加速器的蓝图,用于驱动人工智能云计算。
新的HGX-1超大规模GPU加速器是与微软的Project Olympus联合发布的开源设计,为超大规模数据中心提供了快速、灵活的人工智能路径。
HGX-1对于基于云的AI工作负载的作用,就像ATX (Advanced Technology eXtended)在20多年前推出时对PC主板的作用一样。它建立了一个行业标准,可以迅速和有效地采用,以帮助满足急剧增长的市场需求。
新架构旨在满足云计算中AI计算的爆炸式需求,如自动驾驶、个性化医疗、超人语音识别、数据和视频分析以及分子模拟等领域。
“人工智能是一种新的计算模式,需要新的架构,”英伟达的创始人兼首席执行官黄仁勋说。“HGX-1超大规模GPU加速器将为AI云计算做出贡献,就像ATX标准为今天的pc普及所做的一样。这将使云服务提供商能够轻松采用NVIDIA gpu,以满足人工智能计算的激增需求。”
微软Azure硬件基础设施总经理兼杰出工程师Kushagra Vaid在一篇博客文章中写道:“HGX-1 AI加速器提供了极高的性能可扩展性,以满足快速增长的机器学习工作负载的严格要求,其独特的设计使其可以轻松地被采用到世界各地的现有数据中心。”
对于全球数千家投资于人工智能并采用基于人工智能的方法的企业和初创公司来说,HGX-1体系结构在云计算中提供了前所未有的可配置性和性能。
它由每个机箱中的8个NVIDIA®特斯拉®P100 gpu提供动力,具有创新的切换设计——基于NVIDIA NVLink™互连技术和PCIe标准——使CPU能够动态连接到任何数量的gpu。这允许在HGX-1基础设施上标准化的云服务提供商为客户提供一系列CPU和GPU机器实例配置。
云工作负载比以往任何时候都更加多样化和复杂。AI训练、推理和HPC工作负载在不同的系统配置上运行最佳,CPU连接到不同数量的gpu。HGX-1的高度模块化设计允许在任何工作负载下获得最佳性能。与传统的基于cpu的服务器相比,它提供了高达100倍的深度学习性能,进行人工智能训练的成本估计为五分之一,进行人工智能推理的成本为十分之一。
凭借其与全球数据中心合作的灵活性,HGX-1为现有的超大规模数据中心提供了一条快速、简单的路径,为AI做好准备。
有关更多信息,请单击在这里