快科技 8 月 10 日消息,据国内媒体报道,华为将于 8 月 12 日在 2025 金融 AI 推理应用落地与发展论坛上,发布 AI 推理领域的突破性技术成果。
据透露,这项成果或能降低中国 AI 推理对 HBM(高带宽内存)技术的依赖,提升国内 AI 大模型推理性能,完善中国 AI 推理生态的关键部分。
HBM(High Bandwidth Memory,高带宽内存)是一种基于 3D 堆叠技术的先进 DRAM 解决方案,多层 DRAM 芯片垂直集成,显著提升数据传输效率。具有超高带宽与低延迟、高容量密度、高能效比等优势。
AI 推理需频繁调用海量模型参数(如千亿级权重)和实时输入数据。HBM 的高带宽和大容量允许 GPU 直接访问完整模型,可避免传统 DDR 内存因带宽不足导致的算力闲置。对于千亿参数以上的大模型,HBM 可显著提升响应速度。
当下,HBM 已成为高端 AI 芯片的标配,训练侧渗透率接近 100%,推理侧随模型复杂化加速普及。
然而,其产能紧张和美国出口限制倒逼国内厂商探索 Chiplet 封装、低参数模型优化等替代方案。
天牛宝配资-天牛宝配资官网-配资炒股免费-配资正规炒股理财提示:文章来自网络,不代表本站观点。