撰文|何聆筝编辑|翟文婷
黄仁勋需要花一点时间向全世界解释:为什么客户要为过剩的算力支付溢价?
从年初的CES到本次GTC大会,他一直在兜售「买越多,赚越多」的论调。他的逻辑是:AI将因为推理能力而扩容,所以客户对高性能计算资源存在确定性需求。技术迭代与成本下降的「杰文斯悖论」是又一重佐证。借着 2025 年GTC的演讲台,黄仁勋还回应了外界的诸多疑虑:算力是否真的已经见顶?技术护城河是否还在?「堆算力」的商业模式是否可持续?这些努力似乎收效甚微,市场没有积极回应。甚至在黄仁勋19号演讲结束后,英伟达的股价还下跌了3.4%。这也是黄仁勋第一次无法自主选择演讲议题。

AI工厂的操作系统
「100倍。」这是黄仁勋对未来AI推理算力需求的预测。相对于行业所预测的「5-10倍」,多出了一个数量级。为了论证自己的观点,在 3 月19号GTC大会演讲中,黄仁勋现场展示了一场AI模型对决——用Meta的Llama开源模型与DeepSeek-R1推理模型,解决一个复杂的婚礼座次安排问题。Llama迅速给出答案,生成了439个token,但答案是错误的。R1回答正确,但计算时间更长,共生成了8,559个token。他还晒出了一组数据,2024年美国前四云厂总计采购130万颗Hopper架构芯片,到了2025年,这一数据飙升至360万颗Blackwell GPU。黄仁勋的结论是,虽然优化技术可以提高AI计算效率,计算资源消耗减少,但整体需求仍将持续增长,Scaling Law依旧有效。遗憾的是,「过去这一年,几乎整个世界在这方面都看走眼了」。




历史在押韵
黄仁勋的演讲没能激起投资者的热情。相比起他规划的技术远景,市场更关注短期的收入能见度。《彭博社》评价道:缺少重磅利好消息,对股价造成压力。或许投资者更在意的是,61岁的黄仁勋是否还能像往日那样带领英伟达穿越周期?早年英伟达推出CUDA技术时,许多人都不能理解CUDA的价值,投资者把每年5亿美元的研发投入视为拖累盈利的「累赘」。



不确定和危机感
技术路径的确定性是否等于商业落地的确定性?对黄仁勋而言,这并不是一个一夜之间就能完全解答的问题。他正在努力给英伟达构筑多重「安全垫」。一方面,四代架构并行研发的策略,使竞争对手的追赶周期被拉长至12-18个月。另一方面,面对开源社区冲击,实施「开而不放」的生态战略,又将行业创新纳入自身技术轨道。比如Dynamo开源框架兼容了PyTorch、DeepSeek-R1等主流模型,通过智能调度将集群利用率从50%提升至92%,但核心功能仍锁定CUDA平台。技术上的领先,也使得意图「去英伟达化」的云厂商,依然处于「不得不买」的境地。毕竟Blackwell Ultra运行DeepSeekR1模型的效率是竞品的3倍,停用意味着客户流失。黄仁勋在演讲中就透露了,亚马逊AWS、微软Azure等四大云厂商购买了360万片Blackwell架构GPU的订单,这些订单的排期已经延续到2027年。英伟达还耗资了5000亿美元构建多区域产能网络,对冲全球化产能风险。该网络使英伟达能在24小时内切换全球70%的产能流向,例如中东AI算力集群订单激增时,可迅速调用越南基地的冗余产能。此外,英伟达在2025财年第四季度的自由现金流达到了155.19亿美元,这让英伟达有更充足的底气去收割长远的AI红利。
