Nvidia计划与合作伙伴推出 11 款 DGX Spark 和 Station PC
CBISMB
责任编辑:张金祥
ISMB
时间:2025-06-09 15:02
DGX Spark DGX Station 迷你超级计算机
台北国际电脑展上黄仁勋亲自揭幕两款面向开发者的迷你超级计算机DGX Spark与专业级工作站DGX Station。作为本次发布的核心产品之一,DGX Spark以“全球首款千TOPS级迷你AI工作站”的定位震撼登场。这款仅12升体积的设备搭载了Nvidia与联发科联合研发的GB10 Grace Blackwell超级芯片,整合20核Arm CPU(10颗Cortex-X295高性能核+10颗Cortex-X725能效核)与基于Blackwell架构的GPU,可提供1,000 TOPS(FP4/稀疏计算)的AI推理性能,堪称“开发者口袋中的超算”。
其硬件配置包括:
- 1,000 TOPS AI算力(FP4精度,支持稀疏化加速)
- 72核Neoverse V2 CPU(DGX Station版本)
- 288GB HBM3e内存(DGX Station版本)
- 基于Linux的DGX OS系统,兼容Nvidia全套AI开发工具链
尽管宏碁、华硕、戴尔等7家OEM厂商展示了外观各异的Spark机型,但活动现场禁止拆机,引发外界对其内部差异化的猜测。行业分析师指出,除散热设计与外观ID外,各厂商或将在I/O接口、扩展性及企业级服务支持上展开差异化竞争。
DGX Station:重新定义工作站天花板
针对专业AI研究者与企业用户,Nvidia同步推出了DGX Station。该设备采用升级版GB300 Grace Blackwell Ultra桌面超芯,核心配置包括:
- 72核Neoverse V2 CPU(Arm架构,单核性能较前代提升40%)
- 288GB HBM3e显存(带宽突破4TB/s)
- 496GB LPDDR5X内存(系统内存)
实机演示中,DGX Station在运行Stable Diffusion 3.5与Llama 4 Turbo模型时,推理速度较上代产品提升2.8倍,且功耗降低35%。华硕、技嘉等厂商透露,首批产品将针对医疗影像分析、自动驾驶仿真等场景优化散热与扩展接口,但具体定价与上市时间仍待2025年底揭晓。
Nvidia此次策略的深层逻辑在于构建AI硬件生态闭环。通过向OEM开放Grace Blackwell架构授权,并要求所有机型预装DGX OS与AI开发套件,该公司试图复制其在数据中心市场的成功模式——即通过“硬件+软件+服务”捆绑,巩固开发者依赖性。
市场研究机构TrendForce指出,DGX Spark的推出或将冲击英特尔NUC与苹果Mac Studio的市场份额,而DGX Station则直接对标AMD Threadripper工作站。“Nvidia正从芯片供应商转向AI计算平台定义者,其生态壁垒远比硬件参数更具杀伤力。”
尽管发布会掌声不断,但两款产品的实际落地仍存疑云。Nvidia承认,当前展示的DGX Station为“工程样机”,最终量产版本需等至2025年第四季度。更令专业用户担忧的是,华硕、超微等厂商的分销模式可能导致散热方案参差不齐——在持续高负载的AI训练场景中,这可能成为性能瓶颈。
“我们期待看到第三方拆解报告。”某头部AI实验室硬件负责人表示,“如果OEM为降低成本牺牲散热规模,那么所谓的‘千TOPS’可能只是理想条件下的峰值数据。”
随着AI竞赛进入硬件定制化时代,Nvidia的这场“酒店革命”或许只是开始。