何银涛:中科院计算所计算机体系结构国家重点实验室直博二年级。主要研究方向为存内计算、高能效神经网络加速器设计,曾在计算机系统结构会议DAC、ICCAD上发表一作论文。
报告题目:面向状态感知的ReRAM神经网络计算方法
报告摘要:随着神经网络模型参数量不断增加,传统的冯诺依曼计算架构受限于数据搬运瓶颈,逐渐难以满足数据驱动的人工智能应用需求。阻变存储器(ReRAM)作为一种存内计算方案,在实现高能效神经网络计算系统方面具有重要前景。随着映射到ReRAM的神经网络参数大幅增加,计算开销同样会急剧增长。其中,ReRAM计算阵列功耗占整体的重要部分。因此,针对ReRAM计算阵列上的功耗优化问题,我们提出了一种状态感知算法与硬件的协同优化,包括:一种基于ReRAM的权重状态感知神经网络加速器和低功耗神经网络状态感知模型训练方法。实验表明,在保证神经网络准确率的前提下,该方法大幅降低了ReRAM阵列的计算功耗。
Spotlight:
本文利用ReRAM的阻值状态与读电流的关系,提出了一种基于ReRAM的状态感知神经网络加速器设计;
提出了一种低功耗神经网络状态感知模型训练方法,进一步降低计算功耗;
实验结果表明,本方法能有效降低ReRAM计算开销,且具有可扩展性,同时适用于高精度的神经网络。
1. PRIME A Novel Processing-in-memory Architecture for Neural Network Computation in ReRAM-based Main Memory
推荐理由:第一次提出了以ReRAM为主存、用于加速神经网络计算的存内计算架构。将计算结构融合到主存中,从而使用ReRAM主存的部分阵列直接进行神经网络计算。
2. ISAAC A Convolutional Neural Network Accelerator with In-Situ Analog Arithmetic in Crossbars
推荐理由:基于ReRAM加速器方向的经典论文,提出了一种使用ReRAM 阵列作为矩阵向量乘法单元的卷积神经网络加速器,同时支持流水化计算。
3. GraphR Accelerating Graph Processing Using ReRAM
推荐理由:提出了第一个基于ReRAM的图处理加速器GraphR,使用ReRAM作为主存和计算单元,从而实现了低功耗大规模并行图计算。
4. CASCADE Connecting RRAMs to Extend Analog Dataflow In An End-To-End In-Memory Processing Paradigm
推荐理由:提出了一种ReRAM计算阵列与ReRAM buffer的级联架构及对应的内存数据映射方法,从而大幅减少了传统神经网络计算对部分和数据进行模数转换的开销。
5. GraphSAR A Sparsity-Aware Processing-in-Memory Architecture for Large-scale Graph Processing on ReRAMs
推荐理由:提出了一种基于ReRAM的稀疏感知大规模图加速器设计,利用图数据的稀疏性将其按子图直接存储在计算单元内,从而减少了图数据搬运和ReRAM写入所需的能耗和延迟开销。
6. GaaS-X Graph Analytics Accelerator Supporting Sparse Data Representation using Crossbar Architectures
推荐理由:提出了一种直接对压缩形式数据进行原位计算的稀疏矩阵乘的方法,从而避免了从稀疏形式到稠密矩阵的转换开销、ReRAM的写入开销和对权重为0边的冗余计算。