發(fā)表于 2023-11-02IPChine Ltd
大會(huì)介绍
苹芯展位 :E46
技术分享
“
分享概述
存内计算的结构,通過(guò)降低数据的移动,大幅提高DNN的计算效率。但是過(guGO飘雪ò)去的存算结构专注于DNN推理,而并沒(méi)有對(duì)于DNN丁香花成全训练有足够的研究。相较于DNN推理,DNN训练對(duì)于计算精度有更高的要求。为了实现片上美丽TV的DNN训练,浮点计算是一个必须的功能(néng),同時(shí)成全丁香花,對(duì)于张量操作也有更多要求,這(zhè)對(duì)于存内姐姐动漫计算的设计也提出了新的要求。本项工作提出了,基于哈德玛积形式美丽艺术的BF16浮点存内计算结构,来实现浮点的DNN训练。我们的仿真结果显示在实现mo姐姐国语bilenet训练時(shí),相比于传统计算方式,可以达到(dào)91.飘雪MV2%的功耗节省,以及13.9%的時(shí)间节省。并且实现7国语艺术69.2Kb/mm2的存储密度,相比于之前的浮点存算结构实现约3.5直播高清倍的提升。