企业AI,从“购买更多GPU”转向“降低推理成本的最优配置”…AMD与红帽的解决方案备受关注

企业引入人工智能正跨越新的分水岭。如今,市场的关注点已不再局限于是否投资AI,而是转向了如何为不同业务部署合适的半导体和基础设施,以最大化成本效益。特别是随着“代理型AI”任务的快速增加以及推理成本的上升,对于大企业而言,核心课题已不再是盲目选择最高性能的设备,而是根据目标挑选合适的计算资源,即做出“选择”。

在这一变化背景下,AMD与红帽的合作再度受到关注。AMD全球企业技术销售副总裁约翰·汉普顿在波士顿举行的“红帽峰会2026”现场指出,企业希望在混合环境整体中获得更灵活的AI基础设施。他提到,近期许多客户为应对AI需求而仓促建设了大规模GPU集群,但在实际运营阶段却面临着远超预期的成本压力。

AI推理成本急剧上升……企业重新审视大型GPU单一策略

据汉普顿介绍,许多企业为了不在初期AI竞争中落后,曾集中精力大量采购高性能GPU。问题在于,随着服务规模扩大,每次AI查询所产生的成本不断累积,迅速加剧了预算压力。业界将这种现象称为“Token经济学”,意指随着生成式AI使用量的增加,令牌处理成本也随之上升,直接影响到企业的盈利能力。

他表示:“企业最初为AI大量采购了大型GPU集群,但现在出现了难以承受的反应。虽然AI应用在增长,但成本的过快膨胀引发了巨大担忧。”这最终意味着企业AI战略的核心正在从“确保最高性能设备”转向“针对任务进行优化部署”。

AMD与红帽:提供从CPU到GPU的“全频谱”解决方案

为应对这一趋势,AMD推出了涵盖CPU、高性价比GPU以及高性能加速器的“全频谱”产品组合。其战略是将这些硬件与红帽基于开源软件的堆栈相结合,支持企业在不依赖特定供应商的情况下,在混合云环境中灵活地运营AI任务。

以AMD Instinct MI350P为例,它被介绍为一款基于PCIe接口的GPU,可相对容易地集成到现有服务器中。其特点是采用风冷设计以提高成本效益。红帽AI则作为企业级平台,在此类硬件上支持AI代理的部署与扩展。此外,利用AMD EPYC CPU和红帽虚拟化工具,还能实现服务器整合,进而帮助减少数据中心的空间占用和电力消耗。

核心在于“开放架构”……同时推进AI预算控制与基础设施现代化

本次传递的核心信息是“开放性”与“选择性”。AMD连同红帽强调,相较于封闭生态系统,企业应通过开放架构,能够针对不同的AI工作负载,从CPU、低功耗GPU和高性能加速器中挑选出最合适的资源。并非所有推理任务都需要部署在昂贵的设备上。

这种方法的益处不仅限于降低成本。对企业而言,可以在充分利用现有基础设施的同时,不减缓AI引入的速度,并且能将节省下来的预算和电力资源重新投入到新的AI项目中。这在实务上意义重大,使得AI基础设施现代化与预算控制得以同时实现。

汉普顿预测,未来的AI市场评价标准很可能不再是“买了什么”,而是“如何部署”。随着企业的AI竞争正式进入运营阶段,有分析认为,未来的胜负关键将不在于性能展示,而在于能否精巧地平衡总拥有成本与实际成效。

TP AI 注意事项本文基于TokenPost.ai的语言模型对文章进行了摘要。正文的主要信息可能被遗漏或与事实存在出入。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论