与非网■英特尔和IBM押注的神经模态计算究竟是什么( 二 )


通过这些布局可获得百倍DNN模型无损压缩性能 。 根据AlexNet测试结果 , 该项简洁的解决方案能够超越主流深度压缩方案至少一倍 , 在2/4-bit精度下达到超过100倍的网络压缩 。
IBM研究人员在活动上详细介绍了数字和模拟AI芯片的AI新方法 , 它的数字AI芯片首次采用8位浮点数成功训练了深度神经网络 , 同时在一系列深度学习模型和数据集上完全保持了准确性 。
这些更广泛的问题需要更大规模的神经网络、更大的数据集和多模态数据集 , 为此IBM需要改变架构和硬件来实现这一切 。
IBM大胆预测 , GPU在AI中的主导地位正在结束 。 GPU能够为图形处理进行大量的并行矩阵乘法运算 , 这种矩阵乘法碰巧与神经网络所需的完全相同 , 这非常重要 。
因为没有那些GPU , 我们永远无法达到我们今天在AI性能方面已经达到的性能水平 。 随着IBM掌握的更关于如何实现人工智能的知识 , 也在寻找设计出更高效硬件的方法和途径 。
对于32位计算来说 , 必须在32位上进行计算 。 如果可以在16位上计算 , 那基本上是计算能力的一半 , 或者可能是芯片面积的一半甚至更少 。
如果可以降到8位或4位 , 那就更好了 。 所以 , 这是在面积、功率、性能和吞吐量方面的巨大胜利——关乎我们能够以多快的速度完成这一切 。
IBM还在IEDM大会上展示了所谓的8位精度内存乘法与设计中的相变内存 。 IBM发表了一项关于新型内存计算设备的研究 , 与当今的商业技术相比 , 该设备的计算能耗水平要低100-1000倍 , 非常适合于边缘AI应用 , 例如自动驾驶、医疗监控和安全性 。
IBM的不同之处是相信完整的AI解决方案需要加速推理和训练 , 其正在开发和逐渐发展成熟可用于推理和训练的非易失性内存元件 。
结尾
【与非网■英特尔和IBM押注的神经模态计算究竟是什么】随着英特尔和IBM在内的企业正积极探索超低功耗神经模态芯片在不同领域的应用 , 在未来几年内伴随AI+IoT的发展 , 神经模态计算将会迎来一波新的热潮 。


推荐阅读