边缘AI算力,未来会走向何处?类脑计算,能带来哪些新可能?

2025-10-20 09:00:29 作者:Vali编辑部

近几年,AI芯片行业掀起了一场关于架构革命的讨论。传统冯·诺依曼架构在存储墙和功耗墙的双重压力下,逐渐显露出性能瓶颈。这种架构将计算单元和存储单元分隔开的模式,在处理复杂AI任务时,往往需要频繁的数据搬运,导致效率下降。而神经拟态计算作为对人脑神经网络的模拟,正在成为边缘AI领域的革新力量。

在边缘设备的AI应用中,功耗和响应速度是两大核心需求。神经拟态芯片通过模拟人脑的神经元和突触结构,实现了超低功耗和并行处理能力。这种特性让其特别适合在移动设备、物联网终端等资源受限场景中部署。目前,英特尔的Loihi、IBM的TrueNorth等神经形态芯片已展示出在边缘AI场景下的巨大潜力。而像Innatera、Polyn等厂商的最新技术进展,正在加速这场变革。

以Innatera推出的Pulsar处理器为例,这款芯片采用数字CMOS架构,通过可编程电阻直接处理传感器原生数据。这种设计省去了传统ADC转换环节,使数据处理效率提升至传统方案的20倍以上。在实际应用中,这种芯片可以用于智能摄像头的实时视频分析,或工业设备的异常检测,其低功耗特性能显著延长设备续航时间。

Polyn的神经拟态芯片则采用数模混合CMOS方案,通过可编程电阻直接处理传感器数据。这种设计省去了ADC转换环节,使数据处理效率提升至传统方案的20倍以上。在实际应用中,这种芯片可以用于智能摄像头的实时视频分析,或工业设备的异常检测,其低功耗特性能显著延长设备续航时间。

弗劳恩霍夫研究所开发的SENNA芯片则展示了另一种技术路径。这款基于脉冲神经网络的处理器,采用完全并行的架构设计,响应时间短至20纳秒。在智能电动机控制等实时性要求高的场景中,这种芯片能提供更精准的响应。其可编程特性也允许开发者根据具体需求调整模型,这种灵活性在边缘计算领域具有重要价值。

从技术实现来看,神经拟态芯片主要分为三类:模拟电路主导的神经形态系统、全数字电路神经系统和基于新型器件的数模混合系统。其中,数字CMOS方案因技术成熟度高,成为当前最易产业化的形式。不过,这种方案仍处于类脑芯片的初级阶段,离完全模拟人脑还有一定距离。

忆阻器作为新型器件,正在成为神经拟态计算的重要方向。这种器件不仅能存储数据,还能进行计算,使存算一体架构成为可能。想象一下,如果硬盘不仅能存储数据,还能直接进行深度学习计算,AI训练速度将大幅提升。忆阻器存算一体架构预计将在未来5-10年内进入商业化应用。

国内企业在神经拟态计算领域也取得显著进展。清华大学的天机芯和浙江大学的达尔文芯片代表了国内研究的最高水平。这些芯片在边缘AI场景中展现出独特优势,其低功耗、高并行处理能力正在改变传统芯片的使用方式。

随着技术的不断成熟,神经拟态计算正在从实验室走向实际应用。从智能摄像头到工业传感器,从医疗设备到自动驾驶,这种新型芯片正在重塑边缘AI的生态格局。虽然目前还不足以完全取代传统MCU,但在特定场景中,其性能优势已经显而易见。这场由人脑启发的芯片革命,正在为边缘计算带来新的可能。