安培大核心火了:中国八大巨头集体拥抱NVIDIA A100
nvidia今天在gtc大会上宣布,多家中国*云服务提供商、系统制造商都部署了nvidia a100 tensor core gpu、nvidia技术,为各种ai应用提速。
今年5月,nvidia推出了首款基于安培架构的a100 gpu,台积电7nm工艺制造,集成多达542亿个晶体管,核心面积达826平方毫米,内置6912个fp32 cuda核心,最高加速频率1.4ghz,搭配512-bit 40gb hbm2显存,带宽达1.6tb/s。
相比上代伏特架构的v100核心,它的int8推理、fp32训练性能提升20倍,fp64计算性能提升2.5倍,是历史上进步最大的一次。
a100 gpu还配备了精度更高的第三代tensor core张量核心、gpu间传输率高达600gb/s的第三代nvidia nvlink、nvidia nvswitch、pcie 4.0、nvidia magnum io软件sdk,可实现成千上万个gpu集群的高效扩展。
部署a100的中国云服务商有:
- 阿里云
已发布gn7 gpu系列云服务器,内置8块a100,主要面向ai训练和高性能计算应用,可提供新一代gpu计算实例,相比上一代平台ai性能提升最高20倍,高性能计算提升2.5倍。
- 百度智能云
即将推出lgn3 gpu系列云服务器、vgpu云服务器、百度太行裸金属服务器。
最多搭载8块a100 gpu、8tb nvme ssd、数百g带宽,主要面向ai训练/推理、高性能计算应用、科学计算等场景,计算能力20倍于上代v100。
- 滴滴云
a100裸金属服务器,配置8块a100 gpu、2颗amd epyc 7302处理器、1024gb内存、2个240gb sata ssd、2个2tb nvme ssd,适用于ai、数据分析、高性能计算等多种应用场景。
- 腾讯云
已推出云服务器gt4,搭配amd第二代霄龙平台,最高180核心vgpu,适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域。
部署a100的中国oem厂商有:
- 新华三
已推出搭载8颗a100 gpu的全互联6u服务器h3c uniserver r5500 g5,同时全线gpu服务器机型已同步适配升级,包括h3c uniserver r4900 g3(2u 3gpu)、r5300 g3(4u 8gpu)、r4950 g5(2u 4gpu),部分机型已完成nvqual认证,全面覆盖集群建设、大规模ai模型训练、高性能计算、ai项目部署等应用场景。
- 浪潮
已发布发布多款支持a100 40g的ai服务器,可配置8-16颗,包括nf5488m5-d、nf5488a5、 nf5688m6、nf5888m6,还推出了三款支持a100 pcie版本的服务器nf5468m6、nf5468a5、nf5280m6。
配备最新a100 80gb gpu的ai服务器nf5488m5-d、nf5488a5也已全球量产供货。
- 联想
推出了配备a100 gpu的hg680x,4u 8gpu规格,可满足单机多卡需求,支持两种拓扑形式,存储支持最多8个nvme ssd加16个2.5英寸sas/ssd,或者24个2.5英寸sas/ssd。
适用于大型深度学习模型训练场景、大量数据的推理场景,适应不同深度学习算法与改进,可满足互联网、金融、制造等不同行业客户的多样化需求。
- 宁畅
x640 g30 gpu服务器完成8卡a100的适配,并通过了nvidia nvqual的官方认证,可针对不同场景进行gpu互联拓扑调整、升级算力。现已在客户处完成批量部署,应用于海量数据训练、深度学习、语音识别、图像识别等领域。
- the end -
转载请注明出处:快科技
责任编辑:上方文q