近日,在2025数博会期间,华为云AI-Native智算存储面向自动驾驶全生命周期打造的一体化存储方案备受客户关注。会上披露,华为云AI-Native智算存储基于行业场景驱动的技术创新和发展能力获得了第三方国际权威机构的高度认可:弗若斯特沙利文(Frost&Sullivan)发布《2025年中国AI云存储解决方案市场报告》,华为云AI-Native智算存储获得“创新指数”和“增长指数”双料第1,位列领导者象限第1名。
AI云存储解决方案,重塑智能时代AI云存储价值
沙利文指出:随着AI技术在各行业的深入渗透,传统云存储在性能、数据维度及实时性层面面临根本性挑战,能够满足的行业业务场景相对有限。AI云存储通过云原生架构的资源弹性、缓存优化策略、智能资源调度、智能存储分层等技术手段,显著降低数据存取延迟,提升数据流转效率和整体资源利用率,从支撑系统运行的成本项,跃升为释放AI价值的“加速器”,很好地满足多样化AI业务场景需求。
沙利文经过深入全面的调研、交流和分析评估,华为云AI-Native智算存储凭借业界领先的创新技术,持续引领AI时代云存储产业的变革:
-
场景驱动:针对大模型、自动驾驶、具身智能等场景的业务加速策略;
-
AI推理:显存与算力解耦架构,显著提升推理吞吐并降低TTFT(首Token时延);
-
AI训练:提供TB级吞吐、秒级故障恢复,加速模型训练加载效率;
-
RAG检索增强:支持百亿级向量TopK秒级检索,提升复杂任务处理能力。
基于一体化存储解决方案,服务多样化的Ai业务场景
-
NLP大模型:通过高性能文件存储SFS Turbo缓存加速,单次训练任务故障恢复时间从小时级缩短到秒级;
-
自动驾驶:通过知识湖高性能检索能力,实现百亿向量TopK检索时间从分钟级降至秒级;
-
具身智能:通过SFS Turbo与OBS智能联动,显著提升训练数据吞吐与处理能力;
-
智能助手:使用弹性内存存储服务EMS缓存加速,有效降低推理首token时延,提升推理吞吐。
面向AI全生命周期,以业界领先的技术创新,打造高效普惠的数据底座
-
数据预处理&模型训练:SFS Turbo提供TB级吞吐能力,显著提升数据加载速度,实现Checkpoint快存快恢,增强计算效率;
-
模型推理:业界首创弹性内存存储服务EMS,基于超节点超平面对等内存池化技术,实现显存与算力的解耦,显著提升推理吞吐量;
-
检索增强:知识湖存储的高性能检索能力,实现大规模向量的快速检索,弥补模型在复杂任务中计算能力的不足;
-
AIGC数据生成和数据归档:采用冷热数据智能分级存储策略,优化AI数据全生命周期成本,为大规模AI计算提供经济高效的存储支撑。



沪公网安备 31010702006392号