随着机器学习(machine learning)领域越来越多地使用现场可编程门阵列(fpga)来进行推理(inference)加速,而传统fpga只支持定点运算的瓶颈越发凸显。achronix为了解决这一大困境,创新地设计了机器学习处理器(mlp)单元,不仅支持浮点的乘加运算,还可以支持对多种定浮点数格式进行拆分。
mlp全称machine learning processing单元,是由一组至多32个乘法器的阵列,以及一个加法树、累加器、还有四舍五入rounding/饱和saturation/归一化normalize功能块。同时还包括2个缓存,分别是一个bram72k和lram2k,用于独立或结合乘法器使用。mlp支持定点模式和浮点模式。
考虑到运算能耗和准确度的折衷,目前机器学习引擎中最常使用的运算格式是fp16和int8,而tensor flow支持的bf16则是通过降低精度,来获得更大数值空间。
而且这似乎也成为未来的一种趋势。目前已经有不少研究表明,更小位宽的浮点或整型可以在保证正确率的同时,还可以减少大量的计算量。因此,为了顺应这一潮流,mlp还支持将大位宽乘法单元拆分成多个小位宽乘法,包括整数和浮点数。
值得注意的是,这里的bfloat16即brain float格式,而block float为块浮点算法,即当应用block float16及更低位宽块浮点格式时,指数位宽不变,小数位缩减到了16bit以内,因此浮点加法位宽变小,并且不需要使用浮点乘法单元,而是整数乘法和加法树即可,mlp的架构可以使这些格式下的算力倍增。
精彩推荐至芯科技12年不忘初心、再度起航3月6日西安中心fpga工程师就业班开课、线上线下多维教学、欢迎咨询!fpga 视频处理中外部sdram的作用
英特尔推新款可编程芯片,能否越位amd?
扫码加微信邀请您加入fpga学习交流群
欢迎加入至芯科技fpga微信学习交流群,这里有一群优秀的fpga工程师、学生、老师、这里fpga技术交流学习氛围浓厚、相互分享、相互帮助、叫上小伙伴一起加入吧!
点个在看你最好看
原文标题:fpga运算单元对高算力浮点应用
文章出处:【微信公众号:fpga设计论坛】欢迎添加关注!文章转载请注明出处。
阿丹能量加入深圳市汽车电子行业协会
2011半导体市场增幅仅2% Intel仍居首
我国锂电池产业对美国造成进一步威胁
智慧公安警情研判系统开发大数据分析平台搭建
中山市江波龙电子投资7亿元开发二期项目
FPGA运算单元对高算力浮点应用
瑞萨RZ/G系列MPU简介
泛在电力物联网的数据量将大幅增加,如何构建一个强大的数据平台
LED优良的电学特性是决定其电光转化效率的因素之一
小米1s完整拆解 1499元到底值不值?
TLLiA携手合作伙伴共同提升LED产业在车用市场的应用推广
土壤盐分速测仪在盐碱地土壤改良中的作用
H桥电机驱动芯片CS9029C可pin对pin兼容DRV8841
lm338中文资料汇总(lm338引脚图功能_内部结构参数及应用电路)
LED显示屏助力餐饮行业的发展
中国标准TD-SCDMA之殇:2000亿投资打水漂
全球百强创新企业评选 中国企业无一上榜
成本更低、带货时间更长!数字人直播将颠覆直播行业?
认识一下丙烷传感器
Qualcomm牵手腾讯QQ,带来可穿戴QQ体验