池州市网站建设_网站建设公司_建站流程_seo优化
2026/1/17 6:12:36 网站建设 项目流程

继大规模蚕食DRAM市场后,英伟达与SK海力士计划推出性能提升近10倍的"AI SSD",引发NAND供应警报。随着AI产业重心从训练转向推理,技术栈需全面升级以构建低延迟、高吞吐环境,行业正聚焦通过NAND芯片打造推理优化的AI存储方案,SK海力士预计在2027年前推出相关解决方案。

AI SSD可以扩展到1亿IOPS,这比传统的企业SSD要大得多。当研究这种解决方案的需求时,很明显,当前的AI工作负载结构需要连续访问大量模型参数,这是HBM或通用DRAM产品无法满足的。AI SSD最终将允许伪内存层,针对AI工作负载进行优化,显著提升模型加载、参数访问以及数据调度效率,为大模型推理带来数量级上的性能改善。

随着传统AI工作负载向推理侧迁移,这一趋势的动因之一在于英伟达已决定在Rubin CPX GPU中集成通用GDDR7内存处理预填充阶段。据有关媒体报道,类似技术路径或将延伸至NAND领域,一系列举措可能彻底重塑NAND产业格局。

近年来,AI 训练和推理对 DRAM 尤其是 HBM 的需求急剧上升,头部厂商的大规模采购几乎锁定了未来一段时间的高端内存产能,供需紧张已经成为行业共识。在这样的背景下,仅依赖 DRAM/HBM 来承载越来越大的模型参数和中间数据,成本和可获得性都在变得越来越不友好。

AI SSD 的出现,本质上是一种向“内存层级外延”要空间的尝试。通过让高性能 NAND 承担部分原本由内存负责的数据访问工作,尤其是在推理场景中对容量和吞吐更敏感、对极致时延要求相对可控的环节,AI SSD 有机会在不显著推高成本的前提下,缓解内存压力,提升整体系统效率。这也意味着,NAND 在 AI 系统中的角色,正在从“冷数据存储”向“主动参与计算的数据层”演进。

从产业链角度看,这并非孤立动作。一方面,DRAM 与 HBM 供给趋紧、价格上行已是公开事实;另一方面,AI 服务器整体配置正在变得越来越“存储密集”,无论是本地推理、企业私有化部署,还是多模型并行运行,对高速、大容量存储的依赖都在明显提升。NVIDIA 与 SK hynix 在这一时间点推动 AI SSD,既是技术演进的结果,也是供应链现实倒逼下的一种必然选择。

对于 AI 服务器供应商和用户而言,这类变化意味着,未来的算力系统不再只是“GPU + 内存”的简单叠加,而是需要从更系统的角度重新审视 计算、内存与存储之间的分工与协同方式。谁能更早理解这种变化,并在架构设计和选型阶段提前做出调整,往往就能在成本、可扩展性和交付确定性上占据主动。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询