特斯拉发布D1 AI芯片:500亿晶体管、400W热设计功耗
近日的特斯拉ai日活动上,特斯拉公布了最新的ai训练芯片“d1”,规模庞大,令人称奇。
该芯片采用台积电7nm工艺制造,核心面积达645平方毫米,仅次于nvidia ampere架构的超级计算核心a100(826平方毫米)、amd cdna2架构的下代计算核心arcturus(750平方毫米左右),集成了多达500亿个晶体管,相当于intel ponte vecchio计算芯片的一半。
其内部走线,长度超过11英里,也就是大约18公里。
它集成了四个64位超标量cpu核心,拥有多达354个训练节点,特别用于8×8乘法,支持fp32、bfp64、cfp8、int16、int8等各种数据指令格式,都是ai训练相关的。
特斯拉称,d1芯片的fp32单精度浮点计算性能达22.6tflops(每秒22.6万亿次),bf16/cfp8计算性能则可达362tflops(每秒362万亿次)。
为了支撑ai训练的扩展性,它的互连带宽非常惊人,最高可达10tb/s,由多达576个通道组成,每个通道的带宽都有112gbps。
而实现这一切,热设计功耗仅为400w。
特斯拉d1芯片可通过dip(dojo接口处理器)进行互连,25颗组成一个训练单元(training tile),而且多个训练单元可以继续互连,单个对外带宽高达36tb/s,每个方向都是9tb/s。
如此庞然大物,耗电量和发热都是相当可怕的,电流达18000a,覆盖一个长方体散热方案,散热能力高达15kw。
特斯拉展示了实验室内部的一个训练单元,运行频率2ghz,计算性能最高9pflops(每秒9千万亿次)。
特斯拉还用d1芯片,打造了一台ai超级计算机“exapod”,配备120个训练单元、3000颗d1芯片、1062000个训练节点,fp16/cfp8训练性能峰值1.1eflops(每秒110亿亿次计算)。
建成后,它将是世界上最快的ai超算,对比特斯拉现在基于nvidia方案的超算,成本差不多,但拥有4倍的性能、1.3倍的能效比、1/5的体积。
- the end -
转载请注明出处:快科技