ARM下代处理器架构将支持BFloat16指令集 AI性能暴增数倍
程序员文章站
2022-03-19 20:02:27
深度学习、ai人工智能等技术正在成为各大处理器的热点,虽然目前的主流是通过专用的npu单元来加速ai指令,但在cpu中集成相应的指令集也会带来很大的改变,intel在c...
深度学习、ai人工智能等技术正在成为各大处理器的热点,虽然目前的主流是通过专用的npu单元来加速ai指令,但在cpu中集成相应的指令集也会带来很大的改变,intel在cascade lake及10nm ice lake处理器中就加入了bflota16指令集(简称bf16),ai性能达到了前代的2.5倍以上。
arm今天也宣布了类似的动作,将在下一版armv8架构中加入新的non及sve指令,以便支持bfloat16运算。
bf16运算还不是ieee的标准,但与标准的fp32浮点、fp16半精度相比,bf16运算优点多多,它可以轻松取代fp32,而且还能保持正确的nn神经网络操作,这点是fp16做不到的,而且它占用的内存及带宽只有fp32一半,所以性能更高,而且不需要复杂的架构改变。
总之,支持bf16运算优点多多,根据arm做的模拟,不同类型的运算中bf16带来的性能提升不等,少的有1.6倍性能,多的可达4倍性能,所以在ai方面性能变化是非常大的,是前代的数倍之多。
上一篇: 网站优质内容营销有什么讲究