达摩院2020年十大科技趋势白皮书指出,计算存储一体化方案可以突破AI算力瓶颈。通过将存储和计算单元融合为一体,该方案可以显著减少数据搬运,极大提高计算并行度和能效。阻变存储器(ReRAM)作为一种存内计算方案,在实现高能效神经网络计算系统方面具有重要前景。本期论坛我们邀请到了来自中科院计算技术研究所的何银涛同学,分享她在基于ReRAM的状态感知神经网络加速器设计方面的工作。
何银涛:中科院计算所计算机体系结构国家重点实验室直博二年级。主要研究方向为存内计算、高能效神经网络加速器设计,曾在计算机系统结构会议DAC、ICCAD上发表一作论文。

报告题目:面向状态感知的ReRAM神经网络计算方法
报告摘要:随着神经网络模型参数量不断增加,传统的冯诺依曼计算架构受限于数据搬运瓶颈,逐渐难以满足数据驱动的人工智能应用需求。阻变存储器(ReRAM)作为一种存内计算方案,在实现高能效神经网络计算系统方面具有重要前景。随着映射到ReRAM的神经网络参数大幅增加,计算开销同样会急剧增长。其中,ReRAM计算阵列功耗占整体的重要部分。因此,针对ReRAM计算阵列上的功耗优化问题,我们提出了一种状态感知算法与硬件的协同优化,包括:一种基于ReRAM的权重状态感知神经网络加速器和低功耗神经网络状态感知模型训练方法。实验表明,在保证神经网络准确率的前提下,该方法大幅降低了ReRAM阵列的计算功耗。
Spotlight:
1、本文利用ReRAM的阻值状态与读电流的关系,提出了一种基于ReRAM的状态感知神经网络加速器设计;
2、提出了一种低功耗神经网络状态感知模型训练方法,进一步降低计算功耗;
3、实验结果表明,本方法能有效降低ReRAM计算开销,且具有可扩展性,同时适用于高精度的神经网络。

推荐理由:第一次提出了以ReRAM为主存、用于加速神经网络计算的存内计算架构。将计算结构融合到主存中,从而使用ReRAM主存的部分阵列直接进行神经网络计算。

推荐理由:基于ReRAM加速器方向的经典论文,提出了一种使用ReRAM 阵列作为矩阵向量乘法单元的卷积神经网络加速器,同时支持流水化计算。

推荐理由:提出了第一个基于ReRAM的图处理加速器GraphR,使用ReRAM作为主存和计算单元,从而实现了低功耗大规模并行图计算。

推荐理由:提出了一种ReRAM计算阵列与ReRAM buffer的级联架构及对应的内存数据映射方法,从而大幅减少了传统神经网络计算对部分和数据进行模数转换的开销。

推荐理由:提出了一种基于ReRAM的稀疏感知大规模图加速器设计,利用图数据的稀疏性将其按子图直接存储在计算单元内,从而减少了图数据搬运和ReRAM写入所需的能耗和延迟开销。

推荐理由:提出了一种直接对压缩形式数据进行原位计算的稀疏矩阵乘的方法,从而避免了从稀疏形式到稠密矩阵的转换开销、ReRAM的写入开销和对权重为0边的冗余计算。
录播视频 / 推荐论文下载 / 讲者PPT 登录后获取查看地址