科技日报记者 金凤
模拟计算由于在能效和速度方面具备显著优势,近年来在AI硬件领域受到广泛关注。记者10日从南京大学获悉,该校类脑智能科技研究中心研究团队提出了一种高精度模拟存内计算方案,并以此为基础,研发出一款基于互补金属氧化物半导体工艺的模拟存算一体芯片。测试数据表明,该芯片创下了模拟存内计算领域的最高精度纪录。相关成果近日刊发于国际学术期刊《科学·进展》。
“尽管模拟计算硬件具有高能效和高并行的优势,但当前仍普遍面临计算精度低、计算稳定性不足的挑战。”论文共同通讯作者、南京大学类脑智能科技研究中心主任缪峰教授介绍。
此次研究中,科研团队提出了一种高精度模拟存内计算实现方案。“我们将模拟计算权重的实现方式,从易受环境干扰的物理状态参数,转换到高度稳定的器件几何尺寸比,从而突破了限制模拟计算精度提升的瓶颈。”论文共同第一作者、南大博士王聪说。
基于这一思想,团队研发出了高精度模拟存算一体电路架构,并进行了流片验证。
“在此过程中,我们采用了一种权值重映射技术,进一步提高芯片的计算精度。”缪峰介绍,该芯片在并行向量矩阵乘法运算中实现了仅0.101%的均方根误差,创下了模拟向量-矩阵乘法运算精度的最高纪录。
论文共同通讯作者、南京大学教授梁世军介绍,该芯片在-78.5℃和180℃的极端环境下依然能稳定运行,矩阵计算的均方根误差分别维持在0.155%和0.130%的水平。此外,研究团队也在强磁场环境中对芯片输出电流进行了测量。结果显示,芯片核心单元的输出电流相较于无磁场条件的变化不超过0.21%。
“这些结果证实了高精度模拟计算方案在极端环境下的可靠性。”缪峰认为,这项突破是模拟存内计算技术迈向实际应用的关键一步,有望推动低功耗、高精度AI硬件技术的落地。