报告由天风证券发布,聚焦AI存储领域变革,深入分析“以存代算”技术的发展背景、核心机制、企业布局、硬件突破及投资机遇,指出该技术将重构AI存储生态,为半导体行业带来新增长动能。
“以存代算”兴起源于AI推理痛点与HBM瓶颈。当前AI推理成大模型商业化核心,但面临“推不动、推得慢、推得贵”问题:长文本处理受推理窗口限制,中国大模型首Token时延为美国的2倍,吞吐率仅为1/10。HBM虽突破传统DRAM“存储墙”,3D堆叠技术实现高带宽(HBM3单堆栈达819GB/s),但海外垄断(三星、SK海力士主导)、成本高(占AI服务器成本20%-30%)及美国出口管制(禁售HBM2E及以上产品)制约其大规模应用。在此背景下,“以存代算”通过将KV Cache从HBM/DRAM迁移至大容量、高性价比的SSD,实现存储层扩展,首Token时延缩短87%、Prefill阶段吞吐量提升7.8倍、端到端推理成本降低70%。
技术层面,“以存代算”依托CachedAttention技术与多级缓存体系。CachedAttention缓存历史对话KV Cache至HBM+DRAM+SSD,新对话仅需计算新Token,消除重复计算;多级缓存中,HBM存储活跃会话KV Cache,DRAM平衡速度与容量,SSD作为长期存储池承载非活跃数据。硬件端,SSD角色从存储载体升级为AI推理核心组件,需满足大容量、高吞吐、低延迟需求,技术向三方向演进:颗粒上,QLC颗粒兼顾性能与容量(顺序读写达7000MB/s);接口协议上,以PCIe 5.0/6.0+NVMe为基础,未来融入CXL技术;功能上,向智能化升级(如铠侠研发AiSAQ软件让SSD自主处理AI检索)。
展开剩余77%企业布局方面,国内外龙头积极推进。华为UCM构建智能分级缓存,数据在HBM/DRAM/SSD按需流动,融合稀疏注意力算法,长序列TPS提升2-22倍;浪潮存储AS3000G7优化存储架构,TTFT降低90%、吞吐量提升5倍;焱融YRCloudFile KVCache通过分布式文件系统,将并发支持量提升3.2倍。国际厂商中,铠侠推出CM9(高性能)、LC9(大容量)系列AI SSD,美光发布PCIe 6.0的9650 SSD(28GB/s性能),Solidigm聚焦QLC技术与液冷方案。
报告强调,“以存代算”正从技术理念走向产业落地,将推动SSD需求增速超传统曲线,重塑AI存储基础设施,为半导体行业开辟新增长空间。
免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系
发布于:广东省