英伟达的创始人兼CEO老黄,虽然60多岁了,但看着他最近一系列的密集运作,体力真是令我钦佩。
前不久,英伟达50亿美金投资了Intel,占股大概有4%,实现了这对世纪冤家的“欢喜大结盟”。
而就在昨天,英伟达宣布“霸凌式投资”OpenAI 1000亿美金:现阶段一分不给。
等到OpenAI用英伟达的卡每建成1GW的数据中心后,才打款十分之一,也就是100亿美金,而为了这1GW的数据中心,OpenAI要花500亿~600亿美金,其中300亿~350亿美金要给英伟达。
而OpenAI此前还和甲骨文签了5年3000亿美金的云服务合同,为了提供这个服务,甲骨文还得去买英伟达的卡。
而甲骨文自己手头根本没有那么多钱,甲骨文客户给它的钱都属于还没付的应收账款,它自己必须去融资或者发债,才能”卖肾买卡”。
老黄:4万亿美金市值,就是这么来的。
最后,昨天阿里宣布了和英伟达的一系列合作,Physical AI之类的概念一大堆,其实开发者由此可以在阿里云上使用英伟达的软件栈。但在我看来,其关键在于,市场似乎认为英伟达找到了在无法直接卖卡给中国公司的困局下,依然和中国公司保持紧密合作的妥协方案,这对它的“护城河”尤为关键。
今天这篇文章,是Ben Thompson最近连续几篇关于英伟达文章的合集,我把不相关的内容去掉了,最后是Sam Altman今天凌晨发表的一篇小博客的译文,他解释了下为何OpenAI最近会疯狂买算力(也就是为什么老黄最近会春风得意),我给合成一篇发表了(有些敏感词我用同义词替代了)。
以下为正文。
今年二季度,英伟达的当季营业额达到了467亿美元,基本符合分析师预期。但是,关键的数据中心部门data-center segment(就是卖芯片的部门)的营收,增长了56%,但仍然略低于分析师预期的413亿美元。
英伟达预测,第三财季营收为540亿美元,略高于华尔街分析师的一致预期。但是,在连续多个业绩大增的季度之后,这一营收增速被认为不过如此,并引发了人们对于AI芯片需求增长可能已趋于瓶颈期的担忧。
当时在财报发布后,英伟达股价三连跌。
但是,我认为,分析英伟达财报最重要的是看“供需平衡”。
一年半前,我就指出过这一点,现在仍然如此:只要市场上对英伟达GPU的需求超过供应,英伟达的销售额就取决于他们能生产出多少 GPU。供应当然在增加,这也正是英伟达销售额能持续攀升的原因,但是,假设供应只是线性增长,那么到头来,随着基数变得越来越大,因为英伟达此前的营收本身已实现指数级增长,英伟达的增长率这个数字就势必会变小了。
从一个有趣的角度来看待英伟达和中国,以及黄仁勋极力想向该国出售产品的原因,就是英伟达“护城河moat”的本质。黄仁勋在回答一个关于 ASIC 的提问时说道:
“我们先谈谈 ASIC,很多项目都起步了,许多初创公司涌现,但真正能打造产品的少之又少。原因很简单,这事儿太难了。加速计算accelerated computing,不同于通用计算general-purpose computing,你不能只是写个软件,然后编译成可在处理器上运行的代码。加速计算,涉及全栈的协同设计full-stack co-design。而过去几年里,AI 工厂变得愈发复杂,因为问题规模激增。这真的是当今世界上最终极、最极端的计算机科学问题,所以全栈都很复杂。模型在飞速演进,从基于自回归的生成模型,到基于扩散的生成模型,再到混合模型和多模态模型。涌现出的不同模型,实在太多,要么是 Transformer 的衍生模型,要么是 Transformer 的衍化模型,数量之庞大令人望而生畏。”
“而英伟达的一个优势,就是英伟达无处不在。所有云,都有我们的存在,每家计算机公司,都在用我们。从云端、到本地、再到边缘乃至机器人领域,我们都采用同一个编程模型。因此全球每种框架都支持英伟达。当你构建新的模型架构时,在英伟达上发布是最明智的选择。我们的平台具有多样性,既能适应任何架构演进,又遍布各处,并且我们加速了整个流程,从数据处理、预训练、到带有强化学习的后训练,一直到推理。所以,当你用英伟达平台构建数据中心时,其效用是最好的,设备寿命也长得多。”
上述回答,其实已经体现了护城河的两个层面。
第一,就是 CUDA本身,英伟达控制了GPU的软件栈,这是默认选项,然后是CUDA 的普及度,由于CUDA 无处不在,这意味着你可以前往任何云厂商,也可以找到熟悉 CUDA 的开发者。
黄仁勋还说:“再补充一点,除了刚才说的这些,这本质上已经成了一个极其复杂的系统级问题。大家总是谈论芯片本身,许多人谈论的 ASIC 就只有一个,也就是 GPU。但为了打造 Blackwell 平台和 Rubin 平台,我们还得打造 CPU 来连接高速内存,为 Agentic AI 提供所需的大容量、超高能效缓存,以此连接到 GPU,再连接到超级 NIC,再连接到纵向扩展交换机,也即NVLink,如今已发展到第五代,然后再连接到横向扩展交换机,无论是 Quantum 还是 Spectrum-X 以太网,再进一步横跨交换机扩展,以便我们为那些拥有数吉瓦计算能力、互联网的 AI 超级工厂做好准备。我们称之为 Spectrum~XGS。所以,我们所做的一切复杂得难以置信,而且,现在这一切都是在极其庞大的规模下完成的。”
这就是护城河的第二部分:网络networking。
我一直在讨论英伟达的GPU,但实际上,GPU是在系统层面协同工作的,尤其在训练方面。
而英伟达将多颗 GPU,联结为单一协调系统的能力,无人能及。这也成了一个重大的收入驱动力:本季度,2025年Q2,英伟达的网络业务收入达到73亿美元,已经超过了其2019年收购 Mellanox 时支付的价钱,而Mellanox 正是其网络产品的基础。
这笔收购,堪称史上最成功的收购之一。
“最后再说一点:我们之所以能进入所有云平台是有原因的,我们是最节能的,我们的每瓦性能performance per watt,是任何计算平台中最好的。而在电力受限的数据中心,每瓦性能,直接驱动营收。各位也听我说过,在很多情况下,你买得越多,增长越快the more you buy, the more you grow。再加上我们的每美元性能performance per dollar,也就是性价比实在惊人,因此我们的利润率也极高。所以,采用英伟达 架构所带来的增长机会和毛利空间绝对是最优的。所以每家云服务商、每家初创公司、每家计算机公司都选择英伟达 ,我们真正提供的是 AI 工厂的一体化全栈解决方案。”
上述最后一点,也即第三点,我认为或许是英伟达在西方世界(注意是在西方)长期护城河中最关键的组成部分。
如果,AI公司最终受到功耗限制,那么他们就必须最大化每瓦性能,只要英伟达还在这一指标上保持领先,他们高昂的价格,就物有所值。(关于AI大模型的性能虽然越来越强,但消耗的tokens却越来越多,可见这篇:Token的成本下降10倍,但大模型公司却离盈利越来越远 AI 公司们如今陷入了一种囚徒困境:他们都必须提高模型性能,以领先竞争对手,但他们提高性能的方式,实际上摧毁了自身的盈利能力,与此同时,英伟达则扮演着那个收税人的角色:AI 公司亏得越多,英伟达赚得就越多。)
然而,在中国,功耗很可能不会是限制因素,因此,英伟达的护城河将更多地依赖CUDA,而这一切的前提,是中国公司的大模型,的确使用英伟达的芯片来进行训练和推理。
让中国公司使用英伟达的芯片,其实确保了美国对主流 AI 软件栈的主导地位。但是反过来,如果中国公司不用英伟达芯片,其实不仅削弱了美国的控制力,而且对英伟达而言,将长期威胁其在世界各地的销售。
原因事关整体竞争格局,一旦由中国推出了开源CUDA 的替代方案,且形成规模,不仅中国市场,全球市场上的英伟达芯片,都将面临竞争。
黄仁勋其实一直以来都在担忧,中国肯定是未来 AI 芯片最重要的市场之一,然而,即便不受到限制,可以自由销售,英伟达在该市场也没有可持续存在的差异化优势。
关于不久前,英伟达投资英特尔50亿的案子,Ben Thomson认为这笔交易的最大输家,并非台积电,而是AMD:
“一直以来,AMD区别于Intel之处,在于它不仅在x86 CPU领域展开竞争,还在GPU领域有所布局,这得益于其2006年收购了当时英伟达最大的竞争对手:ATI。但不幸的是,AMD的软件实力向来不足,它既没有建立起像英伟达那样的AI软件栈,也不具备英伟达的网络能力。这意味着,同时拥有CPU和GPU业务,并未给AMD带来原本可能拥有的优势。如今,对于那些想要英伟达GPU又需要x86 CPU的公司来说,Intel将成为显而易见的首选,而且这些Intel CPU还将拥有AMD所没有的另一项专有技术:比如Thunderbolt。不过,需要指出的是,这种损失对AMD而言,更多只是错失良机。AMD在只看重性能和总体拥有成本(Total Cost of Ownership)的领域,依然表现强劲,而且这一势头应会持续下去。实际上,你也可以说这笔交易在相当程度上延长了x86架构的生命力,而这归根结底对AMD也是有利的。”
附:Sam Altman最新Blog《丰裕的智能Abundant Intelligence》
AI 服务的使用增长,令人惊叹,但我们预期未来会更加令人惊叹。
随着 AI 变得更聪明,获取 AI 将成为经济体发展的基本驱动力,甚至最终会成为一项基本人权,几乎所有人都会希望有更多的 AI 为自己工作。
为了能够提供世界所需,既提供运行这些模型的推理算力,也提供让它们持续变得更好的训练算力,我们正在发力铺设基建,以便显著扩大我们建设 AI 的雄心。
如果,AI 按照我们认为的轨迹进步,那么许多惊人的事情将成为可能。
也许,在 10 吉瓦的算力下,AI 能够找到治愈癌症的方法;也许,在 10 吉瓦的算力下,AI 能够为地球上的每一位学生提供个性化辅导。
如果,受到算力限制,我们就不得不在两者之间取舍......没有人愿意做这种选择,所以让我们尽快开始吧。
我们的愿景很简单,我们想打造一座工厂,每周都能产出 1 吉瓦的 AI 基础设施。
要把这件事执行出来,极其困难。达到这一里程碑,需要我们用上数年时间,并且要求在整个技术栈的每一层——从芯片、供电、建筑、机器人——都进行创新。
但我们一直在为此努力,并且相信这是可行的。在我们看来,这将是有史以来最酷、也最重要的基础设施项目。
我们对在美国大规模建设这些设施,格外兴奋。眼下,其他国家在建设芯片晶圆厂以及新的能源产能方面的速度,远快于我们,而我们希望扭转这一趋势。
在接下来的几个月里,我们将谈一谈部分规划,以及我们正在与之合作、把这一愿景变为现实的伙伴。今年晚些时候,我们会介绍我们的融资方式,鉴于如何提升算力是提升收入的关键所在how increasing compute isthe literal key to increasing revenue,我们有一些有趣的新想法。
本文来自微信公众号:一个胖子的世界,作者:Ben Thompson