12月30日最新消息,在我国科研人员持续攻坚下,已成功探索出一条不依赖先进光刻机即可实现高性能芯片量产的技术路径。
今年10月,北京大学人工智能研究院/集成电路学院双聘助理教授孙仲,联合集成电路学院蔡一茂教授、王宗巍助理教授带领团队,成功研发出一款基于阻变存储器(ReRAM)的高精度、可扩展模拟矩阵计算芯片。该成果在全球范围内首次将模拟计算的精度推至24位定点精度,为未来在同等算力需求下大幅减少计算卡部署数量提供了全新可能。
这款芯片与当前主流商用数字芯片存在本质差异:其计算误差从传统模拟方案的约1%锐减至千万分之一(10⁻⁷量级),精度跃升五个数量级;可有力支撑6G通信实时信号处理、具身智能实时决策、AI大模型二阶优化训练等高 demanding 场景;尤为关键的是,它完全适配28纳米及更成熟制程工艺,无需EUV甚至高端DUV光刻设备,实质性绕开了长期受制于人的“光刻机卡脖子”瓶颈。
据研发团队披露,该芯片的核心突破集中于三大维度:
第一,器件革新:摒弃上世纪以来依赖模拟放大器与运算电路的传统路径,转而采用我国已具备量产能力的钽基阻变存储器作为核心单元,直接以电导态编码矩阵权重,面向现代人工智能与通信中普遍存在的大规模矩阵方程求解任务,开创“面向应用的现代模拟计算”新范式。
第二,电路原创:早在2019年即提出并持续优化一种新型闭环反馈模拟电路架构。该设计在几乎不增加功耗与延迟的前提下,通过动态校准机制将系统级相对误差压至10⁻⁷量级,使模拟计算首次达到与32位浮点(FP32)数字处理器相当的数值鲁棒性与工程可靠性。
第三,算法协同:深度融合经典数值方法与模拟硬件特性,创新引入迭代精化与“位切片”协同策略——将24位定点数分解为8组3比特子单元进行并行/流水式模拟运算,再经移位累加重构全精度结果,从而在模拟域高效完成高精度矩阵乘法,规避了全数字实现所需的海量逻辑资源与数据搬运开销。












