IBM展示了用于数字和模拟人工智能芯片的新人工智能方法

随着在旧金山举行的国际电子设备会议(iedm)和在蒙特利尔举行的神经信息处理系统会议(neurlps)的开门红,对于任何希望跟上人工智能研发发展步伐的人来说,本周都显得十分重要。
正如ibm的研究人员正在详细介绍用于数字和模拟人工智能芯片的新人工智能方法。ibm自豪地宣称,其数字ai芯片“首次成功地使用8位浮点数训练了深度神经网络(dnns),同时在深度学习模型和数据集的频谱上完全保持了准确性。”
另外,ibm的研究人员正在iedm上展示一种模拟人工智能芯片,它使用8位精度的内存与投影相变内存相乘。
ai的gpu时代结束了
ibm大胆预测,gpu在人工智能领域的主导地位将终结。gpu能够为图形处理做很多并行矩阵乘法。这样的矩阵乘法恰好是你需要用神经网络做的事情。
移动到较低的精度
提高效率的一个途径是降低人工智能处理所需的精度。
在人工智能中,神经网络是当你展示一幅图像或一个词,我们问它是猫还是狗时,它说它是猫。如果这是正确的答案,你就不必关心中间的所有计算。
理想情况下,人工智能应该模仿人眼,这解释了人工智能处理中精度下降的趋势。
2015年,ibm research发布了ai模型训练推理的降精度方法,论文描述了一种针对传统cmos技术的新型数据流方法。ibm展示了经过16位精度训练的模型,与经过32位精度训练的模型相比,精度没有损失。
从那时起ibm注意到,降低精度的方法很快被采纳为行业标准,16位培训和8位推断现在已经很普遍,并刺激了创业公司和风险投资的爆炸式增长,用于降低基于精度的ai芯片,尽管出现了这种新趋势,但由于需要保持模型的高精度,用数字表示小于16位的“训练”几乎是不可能的。

差分对振荡器
ChatGPT在后端设计中有什么应用?
飞思卡尔与航空电子设备制造商携手合作
普渡科技创立“PUDU-X”创新基金 为机器人行业注入新活力
ML4831 高功率因数、高效率电子镇流器控制器
IBM展示了用于数字和模拟人工智能芯片的新人工智能方法
虹科技术|一文详解IO-Link Wireless技术如何影响工业无线自动化
测量时钟频率的相位噪声和相位抖动时出现的问题分析
有源音箱需要功放吗_有源音箱与电脑连接
ZMC408SCAN轴控光纤激光器加工
我国怎样站在人工智能的制高点
物联网如何“伸手”管理城市
大国科技竞争将在三个纵深维度展开
基于远程医疗的不同情况下选择合适的无线标准的技巧
沈阳法库国际飞行大会落幕,无人机意向销售700架
ROS模型建立常见错误
华为目前有史以来颜质最高的手机:华为荣耀magic,可惜没看到多少人使用!
Socionext技术创新,推进8K普及进程
行业快讯:澳大利亚禁止华为5G、联通开启5G规模试验、紫光将量产64层128G存储器
为什么要把软中断锁放到更底层去呢?