红帽与AMD强化战略合作,为混合云中的AI及虚拟化拓展客户选择
CBISMB
责任编辑:贾西贝
ISMB
时间:2025-05-22 11:41
红帽 AMD 混合云 AI
中国北京 – 2025年5月21日 – 全球领先的开源解决方案提供商红帽公司和AMD(纳斯达克股票代码:AMD)近日宣布建立战略合作,旨在推动AI能力发展,并优化虚拟化基础设施。通过此次深化合作,红帽与AMD将拓展客户在混合云环境中的选择——从部署经过优化、高效的AI模型,到更具成本效益地实现传统虚拟机(VM)的现代化升级。
随着AI的引入导致工作负载需求和多样性持续增加,企业必须具备满足这些不断增长需求的能力和资源。然而,典型的数据中心主要专注于传统IT系统,几乎没有余力支持AI等密集型工作负载。为满足这一需求,红帽与AMD正携手,将红帽行业领先的开源解决方案与AMD全面的高性能计算架构产品组合结合起来。
AMD与红帽:推动更高效生成式AI的实现
红帽和AMD正将红帽AI的强大能力与AMD基于x86架构的处理器及GPU架构的产品组合相结合,为AI驱动的工作负载提供优化、成本高效且生产就绪的环境。
AMD Instinct GPU现已全面支持红帽OpenShift AI,为客户提供在混合云环境中部署AI所需的高性能处理能力,且无需极高的资源需求。此外,使用AMD Instinct MI300X GPU与红帽企业Linux AI,红帽与AMD在Microsoft Azure ND MI300X v5上进行了测试,成功演示了在单个虚拟机(VM)上跨多个GPU部署的小型语言模型(SLM)和大型语言模型(LLM)的AI推理能力,减少了横跨多个虚拟机部署的需求,降低了性能成本。
为了进一步提升性能加速和调优能力,红帽与AMD正在上游vLLM社区开展合作,以推动更高效的AI推理。通过这些上游的激活措施,红帽与AMD旨在提供:
- AMD GPU性能提升:通过将AMD内核库上游化并优化Triton内核及FP8等组件,红帽与AMD正在提升密集型和量化模型的推理性能,使vLLM在AMD Instinct MI300X加速器上实现更快速、更高效的执行。
- 增强的多GPU支持:通过提升集合通信和优化多GPU工作负载,可为更具可扩展性和能效的AI部署打开大门,这对需要跨多个GPU进行分布式计算的工作负载尤为有利,可减少瓶颈并提升整体吞吐量。
- 扩大的vLLM生态系统合作:红帽、AMD与IBM等其他行业领导者之间的交叉协作,有助于加速上游开发,推动vLLM项目与AMD GPU优化的持续改进,进而为依赖AMD硬件进行AI推理和训练的vLLM用户带来益处。
基于在vLLM社区中的此次合作,AMD Instinct GPU将原生支持红帽AI推理服务器(Red Hat AI Inference Server)——红帽的企业级vLLM发行版,为用户带来一个开箱即用、强大、可靠且可扩展的AI推理服务器。作为vLLM项目的顶级商业贡献者,红帽致力于在企业选择的硬件上部署vLLM时实现兼容性,其中包括AMD Instinct GPU。在AMD Instinct GPU上运行vLLM使企业能够在经过验证和测试的GPU硬件上部署任何开源AI模型,获得出色的优化效果和性能表现。
AMD EPYC™处理器还可实现端到端的AI性能,是托管GPU驱动系统的理想选择。这有助于提升每台GPU服务器的性能和投资回报率(ROI),即使面对最严苛的AI工作负载也不例外。
重塑现代数据中心
通过优化现有数据中心布局,企业能够更高效、更便捷地重新配置资源以推动AI创新。红帽OpenShift虚拟化是红帽OpenShift的一项功能,它为企业提供了一条简化路径,使其能够以云原生应用平台的便捷性和速度来迁移和管理虚拟机工作负载。红帽OpenShift虚拟化已针对AMD EPYC处理器完成验证,能够充分利用AMD EPYC处理器卓越的性能与能效,无论在混合云的哪个位置,都能确保性能和效率,同时为通向云原生未来架设桥梁。
基于AMD EPYC处理器的红帽OpenShift虚拟化可助力企业优化在领先服务器(如戴尔PowerEdge、HPE ProLiant和联想ThinkSystem产品等)上的应用部署。在升级传统数据中心时,红帽OpenShift虚拟化能够实现虚拟机与容器化应用在本地、公有云或混合云中的统一管理。这有助于实现更高的基础设施整合率,从而显著降低硬件、软件许可及能源层面的总体拥有成本(TCO)。此外,该方案还可以具有额外优势:使IT团队能够更高效地管理当前关键工作负载,同时释放资源与能源以应对当前及未来的AI工作负载需求。