
拉斯维加斯的会展中心在 CES 落幕后股票知识配资论坛,灯光熄灭、人群散去。但对全球 AI 产业而言,一场更为漫长、也更为昂贵的竞赛才刚刚进入关键阶段。
今年的 CES,依然是英伟达首席执行官黄仁勋站在聚光灯的中央,身着标志性黑色皮衣的他,发布了全新的 Vera Rubin AI GPU 平台,并给出了一组足以震动资本市场的数据:相较前一代 Blackwell 架构,新平台在训练性能上提升 3.5 倍,而推理成本则被压缩至原来的十分之一。
但是这一次,黄仁勋带来的不只是"更快的芯片"。在出席联想集团举办的 Tech World 大会时,黄仁勋为联想集团董事长杨元庆描绘了一个更宏大的图景——在过去三十年里,全球 IT 产业已经累计投入约 10 万至 15 万亿美元,构建起一整套以通用计算和集中式数据中心为核心的基础设施体系。但这套体系,正在系统性地失效。"如今都需要被重新发明、重新现代化。这正是为什么我们会看到眼前这些万亿美元级别的产业机会。"

AMD 首席执行官苏姿丰用一台重达 7000 磅、布满液冷管线的 Helios 机架,向外界传递了一个一致的方向:当前我们正处于算力新时代的起始阶段 …… 在这个时代,AI 将无处不在,并广泛地存在于数据中心、工厂、医院、个人电脑以及边缘设备之中。
黄仁勋称这次变革背后的本质是"我们正在经历一次平台级的技术迁移。"
在过去的三十多年里,IT 产业几乎每隔十年就会经历一次类似的结构性跃迁——从 PC 到互联网,从互联网到云计算,再从云计算到移动计算。在这三次迁移中,始终围绕 CPU 和传统代码构建计算生态。
黄仁勋称,在这次"全新的平台"中,应用将围绕 AI 构建。这就要求计算核心从 CPU 转向 GPU,计算逻辑从"执行指令"转向"自主推理"。然而,整个 IT 产业过去三十年建立的基础设施,都是为"存储和检索信息"设计的,而不是为"自主推理和决策"设计的。传统数据中心的 CPU 集群,面对 AI 推理所需的海量非结构化数据(图像、语音、文本)和复杂神经网络计算,性能不足且成本高昂。
尤其是当 AI 从模型竞赛走向生产系统,算力的价值不再体现在峰值性能,而体现在稳定性、成本结构与可持续性上。推理市场正迅速扩张,并有望在未来几年内超越训练市场,成为 AI 经济的主战场。
两位芯片巨头在同一座城市、同一时间、用不同措辞表达的,其实是同一个判断:AI 基础设施的上半场已经接近尾声,对于企业来讲下半场的竞争,将远比"谁拥有最多 GPU "复杂得多。
在过去三年里,全球科技资本的投入方向高度集中。大模型训练成为 AI 竞赛的核心指标,算力的价值被简化为"谁能堆出更大的 GPU 集群"。OpenAI、微软、谷歌、Meta 等公司争相扩建超级数据中心,英伟达的高端 GPU 几乎成为一种稀缺资源,其市值也随之被推至历史高位。
这一阶段的特征是高度集中、资本密集,以及明确的技术目标:训练出能力更强的通用大模型。

但进入 2025 年后,风向开始发生变化。华尔街的耐心正在耗尽——投资者发现,尽管巨头们投入数千亿美元训练大模型,但真正能商业化落地、产生稳定现金流的应用寥寥无几。更重要的是,基础模型的迭代速度开始放缓。GPT-5 的发布虽然引发关注,但相较于 GPT-4,性能提升更多是"量变"而非"质变"。大模型的训练已经进入"边际效益递减"阶段。
企业不再仅仅满足于展示一个聪明的"聊天机器人",他们需要 AI 去工作——去优化供应链调度、提升生产效率,去实时处理数百万份保险理赔,去毫秒级控制高速公路上的自动驾驶车队,去每时每刻响应全球数十亿智能体的请求。
市场迫切需要 AI 从"展示能力"的阶段,迈入"承担责任"的阶段。而在这一阶段,决定成本结构和可扩展性的,不再是训练,而是推理(Inference),即 AI 模型在获得训练后,根据实时数据进行决策和响应的过程。
德勤在其《2026 技术趋势》报告中指出,随着 AI 从实验室走向企业生产环境,市场正遭遇一种全新的"推理经济学"挑战。尽管单次推理的单位成本在快速下降,但由于使用频率和复杂度急剧上升,总体算力需求反而呈指数级增长。
这一趋势在代理式 AI(Agentic AI)和物理 AI(Physical AI)身上体现得尤为明显。
代理式 AI 的本质,是将 AI 从"响应者"转变为"执行者"。它不再是"一问一答"的聊天机器人,而是能够自主调用工具、多步执行任务的"数字员工"。一个看似简单的任务指令,背后可能触发数百次推理调用:调用工具、拆解步骤、反复校验、再执行。这种多步、长链路的推理过程,往往伴随着大量"隐形 Token "的生成,其算力消耗远高于传统问答式模型。
Gartner 预计,到 2028 年,约 33% 的企业软件将内置代理 AI 功能,而这一比例在 2024 年尚不足 1%。至少有 15% 的日常业务决策将由代理 AI 自主完成。
物理 AI 对算力的要求则更为严苛。当 AI 被嵌入机器人、自动驾驶系统或工业控制设备时,推理必须是实时、低延迟且高度可靠的。这直接推动算力从集中式云数据中心,向边缘侧和本地部署迁移。
本届 CES,黄仁勋喊出了"物理 AI 的 Chatgpt 时刻即将到来"。英伟达在 CES 上展示的 Project GR00T 和 Cosmos 模型,正是试图为机器人构建一套"理解并执行物理世界规则"的通用推理框架。这类应用的共同特点是:推理必须靠近数据源,而不是依赖远程云端。

工业领域的物理 AI 同样对实时性要求极高。假设一座工厂希望进行智能化改造,他的需求是实时响应生产线上的突发情况——比如检测到零件缺陷时,立即调整加工参数;遇到设备故障时,自主切换备用生产线。这同样要求推理算力必须靠近生产现场(即边缘计算),否则数据传输的延迟会导致生产停滞。物理 AI 的核心是"感知 - 推理 - 行动"的闭环,而推理是其中最关键的环节。如果推理不能实时完成,整个闭环就会断裂,AI 也就失去了在物理世界应用的价值。
至此,一个清晰的趋势已经浮现:AI 算力将从"集中式训练"向"分布式推理"倾斜,AI 基础设施不仅仅是昂贵的云端数据中心,还包括从边缘到终端的整个布局。
而随着代理式 AI 和物理 AI 的普及,算力需求不再呈线性增长。这也就不难理解,为何 AMD 掌门人苏姿丰的断言——"未来几年内,全球计算能力可能需要提升 100 倍。"
尽管对于趋势的预期已经非常明确,但代理 AI 的生产化部署并不顺利。德勤调查显示,2025 年虽然有 38% 的企业在进行代理试点,但仅有 11% 的企业在生产环境中使用这些系统。高昂的成本是最为重要的原因。
从技术角度看,推理成本正在迅速下降。过去两年,AI 推理的单位 Token 成本已经暴跌 280 倍——这得益于芯片架构创新、软件优化和规模效应。但企业的 AI 支出非但没减少,反而因用量爆发式增长陷入失控。这一现象在经济学中被称为"杰文斯悖论" :技术的提效降低了资源的使用成本,这反而刺激了需求的激增,最终导致资源总消耗量的上升。
对于率先大规模部署 AI 的企业而言,这一悖论已经变得异常现实。部分公司在公有云上的 AI 账单已攀升至每月数千万美元。当 AI 工作负载从偶发试验变为全天候运行的核心业务流程时,按量计费的云模式开始在经济上变得不可持续。
更重要的是,数据合规、安全和商业机密的考量,使得许多企业无法将核心数据完全托付给公有云。这迫使它们重新评估计算架构,从"云优先"转向"混合计算"。
这一转变,并非简单的成本优化,而是对过去三十年 IT 架构逻辑的根本修正——也正是黄仁勋所指的"重新发明计算基础设施"。
英伟达与 AMD 给出的解决方案,路径不同,但目标一致:在推理时代,将"每 Token 成本"和能耗压缩到足够低。
英伟达的 Rubin 平台通过 Vera CPU 来处理复杂逻辑,让 GPU 专注于高效的矩阵运算;AMD 的 Helios 机架则以超大显存为核心卖点,其搭载的 MI455X 芯片拥有惊人 432GB HBM4 内存,试图用更少的卡承载更多并发推理任务。
但在这场竞争中,一个共同点逐渐显现:无论是哪一种方案,都高度依赖于物理层面的工程能力。
推理时代的芯片,功率密度正在突破传统数据中心的极限。单机架超过 100kW 的功耗,使得风冷方案难以为继。散热不再是配套问题,而是决定算力能否兑现的前提条件。如果散热搞不定,再先进的芯片也只能降频运行,变成昂贵的废铁。
这正是联想在产业链中角色被重新评估的原因。
作为少数能够同时与英伟达和 AMD 展开深度合作的企业,联想是这两大芯片巨头战略布局中不可或缺的关键伙伴,也将成为全球 IT 基建改造的重要参与者。

在联想 Tech World 的舞台上,联想集团 CEO 杨元庆先是与黄仁勋共同发布了基于 Rubin 平台的"联想人工智能云超级工厂";转过身,又与苏姿丰发布了新一代推理服务器,苏姿丰还宣布联想将是 Helios 平台的首发合作伙伴之一。
原因并不复杂。在推理成为核心负载后,AI 基础设施的难点从"买到芯片",转向"部署、散热、运维和规模化交付"。
"很多人并不知道,联想构建了全球最多的超级计算机。全球 Top 500 超级计算机中,有三分之一由联想打造。"黄仁勋称,联想所具备的不仅是制造能力,更是构建、部署并在超算级数据中心中交付复杂系统的综合能力。这是促成双方合作的重要原因所在。
传统企业数据中心是为信息存储与检索设计的,而 AI 时代的企业,需要的不只是几台服务器,更是能帮他们设计、建设、运营复杂" AI 工厂"的全流程能力。这为联想这类混合式 AI 基础设施提供商打开了巨大市场空间,也是联想与英伟达携手推出"联想人工智能云超级工厂"的核心原因。
此外,联想在液冷技术上的长期投入,使其在这一阶段具备了罕见的先发优势。
其第六代 Neptune 海神液冷方案,允许在 45°C 条件下运行数据中心,无需传统冷水机组。这不仅降低了部署复杂度,也为企业节省了可观的电力成本。在推理成本高度敏感的环境中,能耗的每一次下降,都会直接反映为财务回报。
对于联想来讲,黄仁勋画的这个"大饼"的确是个"好干粮"——这场 IT 基础设施重构浪潮带来的绝非短期订单增长,而是深度落地其主张的混合式 AI 战略的关键一步,尤其对其基础设施方案集团(ISG)业务具有决定性的战略价值,这一业务能否快速扭亏一直是资本市场关注的焦点。
面对即将爆发的 AI 推理时代的到来,ISG 渴求抓住机遇的愿望是迫切的。
非常重要的一个表现就是,联想 ISG 在此次 Tech World 上一口气发布了三款应对推理算力需求的产品:除了与 AMD 合作的 AI 推理服务器 SR675i,还有 AI 推理服务器 SR650i 和边缘计算服务器 SE455i。

正如我们前文所分析的,企业需要的不再是孤立的硬件设备,而是"芯片 + 工程部署 + 散热技术 + 运维服务"的一体化解决方案,所以其方案服务业务(SSG)也将因此受益。
借助与英伟达、AMD 的深度绑定,联想得以优先将全球最先进的芯片技术融入自身的硬件产品与解决方案,形成"芯片巨头技术输出 + 联想工程化落地"的互补模式,既提升了 ISG 产品的技术壁垒与溢价能力,更使其从传统硬件供应商升级为 AI 基础设施全生命周期服务商,彻底打开高端企业级市场的增长空间。
联想与英伟达、AMD 的战略伙伴关系,本质上是生态共赢的必然选择。对芯片巨头而言,联想的价值不仅是"首发合作伙伴"的渠道优势,更是其技术落地的"关键转换器"—— 英伟达的 Rubin 平台、AMD 的 Helios 机架,借助联想的超算级部署能力与规模化交付网络,可以更快的转化为企业可直接使用的生产力工具;而对联想而言,绑定全球顶尖芯片厂商,意味着 ISG 业务能持续获得核心技术赋能,始终站在 AI 基础设施技术迭代的最前沿,同时借助芯片巨头的品牌势能,快速建立在 AI 推理领域的行业话语权。
这种 "技术互补、生态共生" 的伙伴关系,让联想在激烈的市场竞争中占据了不可替代的生态位,也让 ISG 业务得以借助这场万亿美元级别的产业机遇,提升整体盈利能力。
CES 2026 所揭示的,不是一轮短期的产品周期,而是一场横跨十年的 IT 基础设施重构。
过去三十年,全球 IT 产业累计投入的 10 – 15 万亿美元基础设施,正在被逐一替换为适应 AI 推理需求的新型硬件、软件和服务。这一过程,就像工业革命时期用电力取代蒸汽动力,信息革命时期用互联网取代电报电话,将彻底改变人类社会的生产方式和生活方式。
对于企业而言,这场重构是一次"生死抉择"。那些能够快速搭建高效、安全、低成本的推理基础设施的企业,将在智能化浪潮中抢占先机,实现生产力的跨越式提升;而那些固守传统 IT 架构、错失推理时代机遇的企业,将逐渐被市场淘汰。正如杨元庆所言:"新一轮 AI 推理浪潮已经到来,谁能将智能部署到本地、边缘和用户端,让智能触手可及,谁就能在未来的竞争中活得更好。"
对于科技巨头而言,这场重构是一场"话语权之争"。英伟达试图通过"芯片 + 生态" 的闭环,垄断推理算力的核心技术;AMD 试图通过"开放 + 差异化",在企业级市场撕开缺口;联想则凭借"物理基础设施 + 全流程服务",成为连接芯片厂商和客户的关键枢纽。
在这一过程中,真正的赢家,未必是发布会上最耀眼的那家公司,而是那些能够将算力转化为可复制、可运营、可盈利基础设施的参与者。这场万亿美元的基建重构浪潮,注定将充满竞争与合作、创新与颠覆。
正如黄仁勋描绘的股票知识配资论坛,过去三十年的计算体系正在走向终点。而下一套体系的建设,才刚刚开始。
盈昌优配提示:文章来自网络,不代表本站观点。