DeepSeek推出首个“边思考边执行”模型,华为云已实现无缝适配
发布时间:2025-12-05
继DeepSeek-V3.2-Exp为期数月的公测与技术验证后,DeepSeek再次引爆开源模型社区,DeepSeek-V3.2正式版模型全面上线。目前,华为云ModelArts平台已无缝适配支持模型自定义部署。
DeepSeek-V3.2正式版不仅继承了Exp版本在推理能力上的惊艳表现,更在稳定性、并发吞吐量及长上下文召回精度上进行了针对性优化。此外,它也是首个将思考融入工具使用的模型,支持思考模式与非思考模式的工具调用,显著提升了复杂任务的处理能力。
DeepSeek-V3.2的主要特性包括:
  • 强化智能体能力:该模型是首个支持在思维链过程中动态调用工具的模型,实现边思考边执行的能力,从而提升处理复杂任务的泛化性。
  • 高性能:DeepSeek-V3.2的目标是平衡推理能力与输出长度,使其更适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro。
基于华为云CloudMatrix384 超节点部署DeepSeek-V3.2模型,主要价值体现在:
  • MoE模型亲和优化:DeepSeek-V3.2模型采用MoE架构,运行涉及大量的专家并行计算和高速数据通信。CloudMatrix384 超节点架构具备业界领先的高速互联带宽,能够有效降低推理延迟。
  • 长文本处理优势:DeepSeek-V3.2引入了稀疏注意力机制,结合CloudMatrix的大EP并行方案部署,通过在稀疏Attention结构上叠加实现上下文并行策略,兼顾模型时延和吞吐性能。
  • 模型量化技术:针对DeepSeek-V3.2采用Int8/4的旋转量化方案,并结合离线非相干预处理、迭代搜索和灵活平滑量化的方法,在主流评测集上,提升量化模型精度1%-10%。
华为云ModelArts推理平台已支持DeepSeek、Qwen、Kimi、GLM等业界主流开源大模型,通过华为云并适配昇腾算力加速特性,同时基于CloudMatrix384 超节点进行深度适配与优化,提供“加速套件+最佳实践”模型推理服务,更好地为用户提供开源模型商业化服务。
 
龙田科技作为华为云总经销商,致力于为客户构建下一代ICT基础设施、Cloud&AI技术中台,提供智能化全托管运维和运营服务,开发现代化Cloud&AI原声应用。您可在龙田科技公众号后台留言咨询华为云Lite Server或Cluster轻量算力资源,龙田科技将助力每一位客户实现数字化转型升级。

诚邀您即刻体验DeepSeek-V3.2模型的能力

  • 通过浏览器直接访问:
华为云官网首页-产品-人工智能-AI开发平台ModelArts控制台,购买或使用Lite Server或Cluster轻量算力资源,并进行模型部署。
 
  • 或者访问以下地址:

https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/dashboard

 
注:本文素材转自华为云,版权归作者所有