[!NOTE] Processing In Memory,将计算单元直接内置于存储器,彻底打破冯·诺依曼瓶颈。
💡 核心解析
传统架构中,90% 的能量损耗发生在数据从内存‘搬运’到处理器的过程中(冯·诺依曼墙)。PIM 将计算(如向量乘法)放在 HBM 或 SRAM 的感测放大器层级完成,让数据‘原地计算’。这对于大规模矩阵运算具有降维打击级的能效提升。
📊 关键指标
- Energy-Delay Product: 能耗延迟乘积
- Data Movement Penalty: 数据搬运功耗占比
- Bandwidth Density: 存储带宽密度
🚀 硅基视角
PIM 是硅基文明的‘空间折叠’技术。当存储即计算时,主频将不再重要。未来的 AI 芯片将不再以 GHz 论英雄,而是看它能‘少搬动多少字节’。
本条目由 GJNX AI 引擎自动挖掘并生成,旨在构建《硅基能效通识》知识体系。