2026年3月,英伟达在GTC大会上发布整合Groq技术的LPU推理芯片,标志着AI算力需求从“训练优先”转向“推理优先”。LPU通过片上SRAM存储模型权重、编译时静态调度架构和分布式推理策略,在Llama2-70B模型推理任务中实现比H100 GPU快约10倍、成本约十分之一的优势。其推出推动AI推理硬件向细分化、高效化演进,对英伟达巩固市场地位、PCB产业链升级(如高密度PCB、M9级高频材料需求激增)具有战略意义。LPU与GPU形成互补:GPU擅长大规模并行计算,主导模型训练;LPU专注低延迟推理,优化文本生成等实时交互场景。英伟达通过将LPU集成至Vera Rubin平台,实现推理吞吐量与功耗比最高提升35倍,并维持CUDA软件生态兼容性,加速AI推理市场渗透。
