黄仁勋,一位在科技领域极具影响力的人物。他提出“下一个浪潮是物理人工智能”这一观点,极具前瞻性。在当今科技飞速发展的时代,这一理念仿佛为人工智能的未来指明了方向。物理人工智能意味着将物理世界与人工智能深度融合,让机器不仅能在虚拟世界中高效运作,更能真实地感知和理解物理环境。这将开启全新的应用领域,从工业制造到智能家居,从医疗健康到交通出行,都将因物理人工智能而发生翻天覆地的变化,引领人类迈向一个更加智能、高效的新时代。
5月19日消息,英伟达CEO黄仁勋在中国台湾出席台北国际电脑展(COMPUTEX 2025),发表主题演讲。
在演讲中,黄仁勋首先强调了英伟达从芯片制造商向AI基础设施领导者的转变。他指出,AI和加速计算正在重塑计算机行业,推动“第四次工业革命”,并将从云端扩展到边缘计算,改变数据中心、机器人和自动驾驶等领域。
黄仁勋详细介绍了英伟达在AI基础设施方面的进展,包括构建数据中心、开发专用库(如cuQuantum、cuDSS等)以加速不同领域的应用,以及推动电信业的软件定义化。他还展示了GeForce RTX 50系列显卡在AI驱动下的光线追踪技术,并强调了CUDA和相关库在加速计算中的核心地位。
此外,黄仁勋介绍了英伟达在AI推理和生成式AI方面的突破,包括推理型AI、物理AI和代理型AI的发展,以及如何通过Grace Blackwell系统实现高性能计算。他表示,生成式人工智能赋予了我们一次性人工智能。智能远不止是你从大量数据中所学到的东西,代理型人工智能基本上就是理解、思考和行动,是数字形式的机器人。这些将在未来几年变得非常重要。他还宣布了与富士康、台积电合作建造巨型AI超级计算机的计划,并推出NVLink Fusion技术,以支持构建半定制AI基础设施。
黄仁勋还展示了多款新产品,包括DGX Spark和DGX工作站,这些产品旨在为开发者和企业提供强大的AI计算能力。他还介绍了RTX Pro企业级服务器和Omniverse平台,强调了AI在企业IT中的应用前景,以及如何通过数字孪生技术推动工业自动化和机器人技术的发展。
最后,黄仁勋宣布英伟达将在台北市北投士林区建立新的办公园区——英伟达星系(NVIDIA Constellation),以支持公司不断增长的业务需求,并感谢合作伙伴多年来对英伟达的支持。
以下是演讲实录:
很高兴来到这里。我的父母也在观众席中,他们在那里。
英伟达在这里已经超过30年了。这里是我们许多珍贵合作伙伴和亲爱朋友的家。多年来,你们见证了英伟达的成长,也见证了我们完成了许多激动人心的成就,并一路与我合作。今天,我们将讨论我们在行业中所处的位置、我们将要去的地方,并宣布一些新产品,令人激动和令人惊喜的产品,这些产品将为我们打开新的市场,创造新的市场、新的增长。我们将讨论伟大的合作伙伴,以及我们将如何共同发展这个生态系统。
众所周知,我们正处于计算机生态系统的中心,这是世界上最重要的行业之一。因此,当需要创造新的市场时,我们必须从这里开始创造,这是理所当然的,位于计算机生态系统的中心。而且我为你们准备了一些惊喜,一些你们可能猜不到的事情。
当然,我保证我会谈论人工智能和机器人技术。
英伟达的故事是计算机产业的重塑。事实上,英伟达的故事也是我们公司的重塑。正如我所说,我已经来了30年了,你们中的许多人都经历过我的多次主题演讲,你们中的一些人,全部都经历过。回顾这次对话,以及我们过去30年所谈论的内容,变化是如此巨大。
我们最初是一家芯片公司,目标是创建一个全新的计算平台。在2006年,我们推出了CUDA,它彻底改变了计算的方式。
十年后的2016年,我们意识到一种新的计算方法已经到来。这种新的计算方法需要对技术堆栈的每一层进行彻底的改造。处理器是全新的,软件堆栈是全新的,因此,系统也必然是全新的。
所以我们发明了一个新的系统。一个在我2006年在GTC大会上宣布它的那天,没有人理解我在说什么,也没有人给我下采购订单的系统,叫做DGX-1。
DGX-1,我将第一台捐赠给了一个叫做OpenAI的非营利性公司,它开启了人工智能革命。
几年后,我们意识到,事实上,这种新的软件开发方式,现在被称为人工智能,与传统的软件运行方式不同。许多应用程序都在大型数据中心的少量处理器上运行,我们称之为超大规模。这种新型应用程序需要多个处理器协同工作,为数百万人的查询提供服务。并且该数据中心的架构将从根本上不同。
我们意识到有两种类型的网络。
一条用于南北向流量,因为仍然需要控制存储,仍然需要拥有一个控制平面,仍然需要连接到外部。但最重要的网络将会是东西向流量,计算机互相通信,试图解决一个问题。我们认识到在高性能计算的东西向流量方面,最优秀的网络公司进行大规模分布式处理。
一家对我们公司非常重要且与我们息息相关的公司,一家名为Mellanox的公司,我们在5年前,即2019年收购了他们。
我们将整个数据中心转换成一个计算单元。之前听我说过,现代计算机就是一个完整的数据中心。数据中心是一个计算单元,不再仅仅是一台PC,不再仅仅是一台服务器,整个数据中心都在运行一个作业,而操作系统将会改变。
英伟达的数据中心发展历程现在已广为人知。在过去的三年里,已经看到了我们正在塑造的一些理念,以及我们如何开始以不同的视角看待我们的公司。
历史上没有任何一家公司,尤其是没有任何一家科技公司,会一次性公布长达五年的发展路线图。没有人会告诉你接下来会发生什么,他们对此秘而不宣,极其保密。
然而,我们意识到英伟达不再仅仅是一家科技公司。事实上,我们是一家至关重要的基础设施公司。如果不了解我将要做什么,又如何规划你的基础设施、你的场地、你的外壳、你的电力、你所有的必要融资,遍布全世界?如果不了解我将要做什么,又怎么可能做到这一切呢?
于是,我们相当详细地描述了我们公司的发展蓝图,详细到世界上每个人都可以开始建造数据中心。
我们现在意识到,我们是一家人工智能基础设施公司,一家在全球都至关重要的基础设施公司。每个地区、每个行业、每家公司都将建设这些基础设施。
那么,这些基础设施是什么呢?事实上,这些基础设施与第一次工业革命非常相似。当人们意识到,通用电气、西屋电气、西门子公司意识到,有一种名为电的新型技术,并且需要在世界各地建设新的基础设施。这些基础设施成为了社会基础设施的重要组成部分,如今,这种基础设施被称为电力。
若干年后,就在我们这一代,我们意识到出现了一种新型的基础设施,而且这种新的基础设施非常概念化,难以理解。这种基础设施被称为信息。这种信息基础设施,第一次被描述时,没有人能理解,但我们现在意识到它就是互联网,互联网无处不在,并且所有事物都与它相连。
现在出现了一种新的基础设施,这种新的基础设施建立在前两种基础设施之上,而这种新的基础设施是一种智能基础设施。我知道现在,当我们说存在智能基础设施时,这毫无意义。
我向你们保证,10年后,你们回首往事,就会意识到人工智能已经融入到一切事物之中。事实上,我们需要人工智能无处不在。而且每个地区、每个行业、每个国家、每个公司,都需要人工智能。
人工智能现在是基础设施的一部分。而这种基础设施,就像互联网,就像电力一样,需要工厂。这些工厂本质上就是我们今天所建造的东西。它们不是过去的那些数据中心。一个价值 1 万亿美元的产业,提供信息和存储,支持我们所有的企业资源计划(ERP)系统和员工。这是一个数据中心。一个过去的数据中心。从某种意义上说,这与它类似,因为它来自同一个行业。它来自我们所有人。但它将演变成完全不同的东西。完全独立于世界的数据中心。这些人工智能数据中心,如果你愿意这么称呼它们,实际上被不恰当地描述了。它们实际上是人工智能工厂。
你向它输入能量,它就会产出极具价值的东西。这些东西被称为token。到了企业开始谈论上个季度他们生产了多少token的地步。以及上个月他们生产了多少token。很快,我们将讨论我们每小时生产多少token。正如每个工厂所做的那样。
因此,世界已经发生了根本性的变化。从我们公司成立的那天起,我就在试图弄清楚1993年我们的机会有多大。我得出的结论是,英伟达的商机是巨大的。3亿美元。我们要发财了。3亿美元的芯片产业。
针对一个价值约一万亿美元的数据中心机遇。发展到如今,一个人工智能工厂,一个价值将以数万亿美元计的人工智能基础设施产业。这就是我们正在从事的令人兴奋的未来。
现在,从根本上说,我们所做的一切都建立在几项重要的技术之上。当然,我经常谈论加速计算。我经常谈论人工智能。使英伟达真正特别的是这些能力的融合。尤其重要的是算法、库,我们称之为 CUDAX 库的东西。我们一直在谈论库。事实上,我们是世界上唯一一家不停谈论库的科技公司。这背后的原因是图书馆是我们一切工作的核心。图书馆是这一切的起点。
今天我将向大家展示一些新的图书馆。但在此之前,让我先预览一下我今天要讲的内容。您即将看到的一切都与模拟、科学和人工智能相关。这里展示的都不是艺术。一切都是模拟。只是恰好很美。让我们来看一下。
我现在正站在实时的计算机图形前。这不是视频,这是计算机图形。它由GeForce生成。这是全新的GeForce 5060,RTX 5060。这是华硕的产品。我的好朋友约翰尼在前排。这是微星的产品。我们将这款令人难以置信的GPU缩小并放到了这里。这有道理吗?
这太不可思议了,这就是微星搭载5060显卡的新款笔记本电脑。英伟达GeForce为世界带来了CUDA,现在你所看到的,是每一个像素都经过了光线追踪。
我们是如何做到模拟光子,并以这种分辨率提供这种帧率的?原因在于人工智能。我们只渲染十分之一的像素。所以你看到的每个像素中,只有十分之一是实际计算出来的,剩下的九个,由人工智能推测,而且效果堪称完美,它完美地猜中了。这项技术叫做DLSS,神经渲染。我们花费了许多年才开发出来,从我们开始研究人工智能的那一刻起,就已经开始了,所以这已经是一个10年的旅程。人工智能彻底革新了计算机图形学的进步,GeForce将人工智能带到了世界,现在人工智能又回来革新了GeForce,真的是非常惊人。
GeForce RTX 50系列刚刚完成了其有史以来最成功的发布,这是我们历史上最快的发布,而且PC游戏现在已经有30年历史了,这说明了GeForce有多么令人难以置信。
核心在于,一切都始于CUDA。通过使CUDA尽可能地高性能、尽可能地普及,从而使安装基础遍布全球,应用程序就能很容易地找到CUDA GPU。安装基础越大,就越多的开发者希望创建库。库越多,越能完成令人惊叹的事情,应用程序越好,用户受益越多,他们就会购买更多的计算机。计算机越多,CUDA就越多,这种反馈路径至关重要。
然而,加速计算并非通用计算。通用计算编写软件,每个人都用Python或C++编写,然后进行编译,通用计算的方法论始终一致:编写应用程序,编译应用程序,在CPU上运行它。然而,这种方法从根本上不适用于加速计算,因为如果可以这样做,它就会被称为CPU。如果不直接改变CPU,以便你可以编写软件、编译软件、并在CPU上运行它,那还有什么意义呢?你需要做一些不同的事情,这个事实实际上相当合理。其原因在于,如此多的人致力于通用计算,数万亿美元的创新投入,怎么可能仅仅因为芯片内部的几个小部件,计算机突然就变得快50倍、快100倍呢?这毫无道理。
因此,我们应用的逻辑是,如果你对应用程序有更深入的理解,你就可以加速它。如果你创建一种更适合加速、以接近光速运行99%运行时的架构,即使它只占代码的5%,你也可以加速应用程序,这相当令人惊讶。大多数应用程序中,代码的一小部分消耗了大部分的运行时。我们观察到了这一点,因此我们逐个攻克不同的领域。
我刚才向你展示了计算机图形。我们还有数值计算库,这是数值计算库。是最普及的数值计算库。
Arial和Shona。Arial是世界首个用于5G和6G的GPU加速无线电信号处理方案。一旦我们将其软件定义化,就可以在其上叠加人工智能。这样我们就能将人工智能引入5G和6G。
Parabricks用于基因组学分析。Monai用于医学影像。Earth 2用于天气预测。cuQuantum用于量子经典计算机架构和计算机系统。
Megatron。这一整行,这一整列包含我们所有的深度学习以及所有用于深度学习训练和推理的必要库。这彻底改变了计算。而这一切都始于这些库。不仅仅是CUDA,还有CUDNN。在CUDNN之上,有Megatron。Megatron,然后是Tensor RTLM。然后最近,用于大型AI工厂的全新操作系统,Dynamo。
CUDF用于像Spark和SQL这样的数据帧。结构化数据也可以被加速。cuML,经典机器学习。Warp,一个框架,一个用于描述 CUDA 内核的 Pythonic 框架。非常成功。
cuopt,数学运算,优化。例如旅行商问题。能够优化高度约束、大量变量类型的问题,例如供应链优化。这是一个了不起的成功。我对 cuopt 非常兴奋。
cuDSS 和 cuDSparse,用于稀疏结构模拟器。它们用于 CAE 和 CAD 流体动力学。有限元分析,对于EDA和CAE行业来说极其重要。
然后,当然还有粗culitho。它是计算光刻领域最重要的库之一。光掩模制造很容易花费一个月的时间。而且光掩模制造过程需要极高的计算强度。现在有了culitho,我们可以将计算速度提高50倍、70倍。因此,这将为未来将人工智能应用于光刻技术奠定基础,打开世界。我们在这里拥有优秀的合作伙伴。台积电正在广泛使用culitho。阿斯麦、新思科技,都是与我们在culitho方面合作的卓越伙伴。
正是这些库本身使得我们能够在一个又一个的应用领域、科学领域和物理领域中加速应用,同时也为我们开拓了市场。我们关注特定的区域和市场,认为这些区域对于转型到新型计算方式而言非常重要。如果通用计算经过这么多年已经走到了尽头,为什么它没有在每一个行业都走到尽头呢?
最重要的行业之一,当然是电信业。正如世界上的云数据中心现在已经变成了软件定义的一样,电信也应该变成软件定义的,这是理所当然的。因此,我们花了大约6年的时间来完善和优化一个完全加速的无线接入网(RAN)堆栈,它能实现惊人的性能。对于每兆瓦的数据速率,或每瓦的数据速率,我们现在与最先进的专用集成电路(ASIC)处于同一水平。
一旦我们能够做到这一点,一旦我们能够达到那种性能和功能水平,那么之后我们就可以在上面叠加人工智能(AI)。我们在这里有很棒的合作伙伴,如软银、T-Mobile、印尼电信和沃达丰正在进行试验。诺基亚、三星、京瓷正在与我们合作进行全栈开发。富士通和思科正在进行系统方面的合作。因此,现在我们有能力引入基于5G的人工智能,或者基于6G的人工智能,以及基于计算的人工智能的理念。
我们正在利用量子计算来实现这一点。量子计算仍处于含噪声中等规模量子 (NISQ) 状态。然而,我们已经可以开始进行许多非常有用的应用。因此我们对此感到兴奋,我们正在开发一个量子经典,或者量子GPU计算平台,我们称之为CUDA-cu,并与世界各地出色的公司合作。GPU可以用于预处理和后处理、纠错以及控制。我预测在未来,所有超级计算机都将拥有量子加速器,所有计算机都将连接cuQPU。因此,一台超级计算机将是由cuPU、GPU和一些CPU组成的系统。这将是现代计算机的表征。因此,我们与该领域的许多优秀公司合作。
人工智能方面,12年前,我们从感知开始,即能够理解模式、识别语音、识别图像的人工智能模型。那是开端。过去5年,我们一直在谈论生成式人工智能,即人工智能不仅能理解,还能生成的能力。因此,它可以从文本生成文本,比如ChatGPT中一直在使用的那样;文本到图像,文本到视频,视频到文本;图像到文本,几乎任何事物到任何事物。这才是人工智能真正令人惊叹之处,我们已经发现了一个通用的函数逼近器,一个通用的翻译器。它可以从任何事物翻译到任何其他事物。
只要我们能简单地对其进行标记化,表示信息的比特,那么我们就已经达到了一个真正重要的人工智能水平。
生成式人工智能赋予了我们一次性人工智能。你给它一段文本,它就给你一段文本作为回报。那是两年前,我们首次接触了聊天机器人GPT。那是重大的、令人惊叹的突破。你给它一段文本,它会回给你一段文本。它预测下一个词,预测下一段。
然而,智能远不止是你从大量数据中所学到的东西。智能包括推理能力,包括解决你以前从未见过的问题的能力,包括将问题逐步分解的能力,包括应用一些规则和定理来解决你从未见过的问题,包括模拟多种选择并权衡其优劣的能力。
你可能听说过其中的一些技术:思维链,将其逐步分解;思维树,提出大量可能的路径。所有这些技术都在引领人工智能具备推理能力。
现在,令人惊奇的是,一旦你拥有推理能力,并且拥有感知能力,也就是说,比如,多模态读取PDF,你就可以进行搜索,可以使用工具,你就拥有了自主智能。
这种自主智能所做的事情,正是我刚才描述的我们所有人都在做的事情。我们被赋予一个目标,我们将其逐步分解。我们推理要做什么,以及做这件事的最佳方式是什么。我们考虑其后果,然后开始执行计划。该计划可能包括做一些研究,可能包括做一些工作,使用一些工具。它可能包括联系另一个人工智能代理,以便与之协作。
代理型人工智能基本上就是理解、思考和行动。嗯,理解、思考和行动是机器人学的循环。代理型人工智能基本上是数字形式的机器人。这些将在未来几年变得非常重要。我们正在看到这个领域取得巨大的进展。
除此之外的下一个浪潮是物理人工智能,能够理解世界的人工智能。他们理解惯性、摩擦、因果关系等事物。例如,如果我滚动一个球,球滚到车下,根据球的速度,它可能滚到了车的另一边,但球并没有消失,客体永久性。你或许能够推断出,如果你面前有一张桌子,而你必须到另一边去,最好的方法不是直接穿过去。最好的方法可能是绕过它或从它下面过去。能够推理这些物理事物对于下一代人工智能至关重要。我们称之为物理人工智能。
因此,在这个特定的例子中,你看到我们只是提示人工智能,它就生成视频来训练自动驾驶汽车在不同的场景中行驶。稍后我会向你展示更多相关内容。
那是一只狗。它可以说,“给我生成一只狗”。“给我生成一只带鸟的,带人的”。它一开始生成了左边的图像。
在那之后的阶段,我们将采用推理系统、生成系统、物理人工智能,而这种级别的能力将会进入我们称之为机器人的物理载体中。 如果你能想象提示人工智能生成一个视频来伸手拿起一个瓶子,当然你也可以想象告诉一个机器人伸手拿起那个瓶子。 今天的人工智能有能力做到这些事情。 这就是我们在不久的将来要实现的目标。
我们为实现这一目标而构建的计算机,其属性与之前的计算机截然不同。 名为Hopper的革命性计算机大约在3年前问世,它彻底改变了我们所认知的人工智能。 它可能成为了世界上最流行、最广为人知的计算机。
在过去的几年里,我们一直在研发一种新的计算机,以便我们能够实现推理时间扩展,或者说,能够以难以置信的速度进行思考。 因为当你思考的时候,你会产生大量的tokens(标记),你会产生大量的想法,并且在你给出答案之前,在你的大脑中进行迭代。 所以,过去的一次性人工智能现在将变成思考型人工智能、推理型人工智能、推理时间扩展型人工智能。 而这将需要更多的计算量。
因此,我们创建了一个名为Grace Blackwell的新系统。Grace Blackwell具有多种功能:它具有向上扩展的能力,意味着将一台计算机变成一台巨型计算机;向外扩展是指将一台计算机与多台计算机连接起来,并让多台不同的计算机完成工作。 扩展很容易,向上扩展极其困难。 构建超越半导体物理极限的更大型计算机,难如登天。 而这正是格蕾丝·布莱克威尔所做的。 格蕾丝·布莱克威尔几乎打破了一切。
在座的各位,你们中的许多人正在与我们合作构建格蕾丝·布莱克威尔系统。 我很高兴地说,我们已经全面投产。 虽然基于HGX的布莱克威尔系统自去年年底以来一直在全面生产,并且自2月起已上市,但我们现在才刚刚将所有格蕾丝·布莱克威尔系统上线。 它们每天都在各地陆续上线,已经在CoreWeave上可用好几周了,已经有很多云服务提供商(CSPs)在使用它。 现在你开始看到它从各个地方涌现出来,每个人都开始发推文说Grace Blackwell正在全面投产。
在今年第三季度,正如我承诺的,我们将像有节奏一样,每年都提高我们平台的性能。 今年,在第三季度,我们将升级到Grace Blackwell GB300。
GB300 将沿用相同的架构、相同的物理尺寸和相同的电气机械结构,但内部的芯片已经升级,使用了一种新的 Blackwell 芯片。
现在,它的推理性能提高了 1.5 倍,HBM 内存增加了 1.5 倍,网络吞吐量提高了 2 倍,因此整体系统性能更高。
让我们看看 Grace Blackwell 内部是什么。Grace Blackwell 从计算节点开始。这是其中一个计算节点。这是上一代产品 B200 的样子,这是 B300 的样子。请注意正中间,现在是 100% 液冷,但除此之外,从外部来看,它是一样的。你可以把它插入到相同的系统和相同的机箱中。
这是 Grace Blackwell GB300 系统,它的推理性能提高了 1.5 倍。训练性能大致相同,但推理性能提高了 1.5 倍。现在,这个特殊的系统算力达到了 40 Petaflops,大约相当于 2018 年 Sierra 超级计算机的性能。
Sierra 超级计算机拥有 18000 个 Volta 架构的 GPU。这里的这一个节点就取代了整个超级计算机。6 年内性能提升了 4000 倍。这就是极端的摩尔定律。记住,人工智能公司 NVIDIA 已经实现了大约每 10 年计算能力提升一百万倍,而且我们仍然在沿着这条轨道前进。
但是实现这一目标的方法不仅仅是提高芯片的速度。芯片的速度和尺寸都有其极限。在 Blackwell 的案例中,甚至将两个芯片连接在一起,使其成为可能。台积电与我们合作,发明了一种名为COOS-L的全新COOS工艺,使我们能够制造这些巨型芯片。
但即便如此,我们仍然想要比这更大的芯片。因此,我们必须创造出所谓的NVLink,这是世界上最快的交换机,速率是每秒7.2太字节。9个这样的交换机安装到那个机架中。
这9个交换机通过这个奇迹般的装置连接起来。这就是NVLink骨干网,两英里的电缆,5000根结构化的电缆,全部同轴,其阻抗已匹配。它将所有72个GPU连接到NVLink交换网络中的其他72个GPU。NVLink骨干网的带宽为每秒130兆兆字节。
简单来说,整个互联网的峰值流量为每秒900兆兆比特,除以8,它的流量超过了整个互联网的流量。
一个NVLink主干网连接着9个NVLink交换机,这样每个GPU都可以完全同时地与其他GPU通信。这就是GB200的奇迹。
由于SerDes的驱动距离有限制,这是SerDes所能达到的最远距离,它从芯片到交换机,再到主干网,到任何其他交换机,任何其他芯片,全部是电信号。因此,这个限制迫使我们将所有东西都放在一个机架中。
现在一个机架是120千瓦,这就是所有东西都必须进行液冷的原因。我们现在有能力将GPU从一个主板上分离出来,本质上是分布在一个完整的机架上。那么整个机架就是一块主板,这就是奇迹,完全解耦。
现在GPU的性能非常惊人,内存容量非常惊人,网络带宽非常惊人,现在我们真的可以大规模扩展这些系统。一旦我们向上扩展,我们就可以将它们向外扩展到大型系统中。
英伟达几乎所有产品都非常庞大,原因在于我们不是在构建数据中心和服务器,我们正在建造人工智能工厂。这是CoreWeave,这是Oracle Cloud。每个机架的功率密度非常高,他们必须将它们分隔得更远,以便功率密度可以分散。但实际上,归根结底,我们不是在建造数据中心,我们正在建造人工智能工厂。
这是XAI Colossus工厂,这是星门 (Stargate),4百万平方英尺,1吉瓦。因此,请想象一下这座工厂,这座1吉瓦的工厂可能需要大约600亿到800亿美元的投资。在这600亿到800亿美元中,电子设备和计算部分,也就是这些系统,就占了400亿到500亿美元。所以,这些都是巨大的工厂投资。
人们建造工厂的原因是因为你知道答案,买得越多,生产得越多,这就是工厂所做的事情。
这项技术非常复杂,实际上,仅仅在这里看看,你仍然无法充分领略我们的所有合作伙伴以及在座的所有公司所完成的卓越工作。所以我们为您制作了一部影片。
影片文字:Blackwell 是一项工程奇迹。它始于台积电的一块空白硅晶圆。数百个芯片处理和紫外光刻步骤在 12 英寸晶圆上逐层构建起 2000 亿个晶体管。晶圆被划片成一个个 Blackwell 芯片,经过测试和分类,分离出合格的芯片以继续后续流程。
台积电、Spill 和 Amcor 完成芯片-晶圆-基板(chip-on wafer on substrate)工艺,将 32 个 Blackwell 芯片和 128 个 HBM 堆栈连接到定制的硅中介层晶圆上。 金属互连走线直接蚀刻到其中,将 Blackwell GPU 和 HBM 堆栈连接到每个系统和封装单元中,将所有部件锁定到位。
然后对组件进行烘烤、模塑和固化,从而制造出 Blackwell B200 超级芯片。 在 KYEC,每个 Blackwell 都在 125 摄氏度的烤箱中进行应力测试,并在其极限下运行几个小时。
回到富士康,机器人日夜不停地工作,将 10000 多个组件拾取并放置到 Grace Blackwell PCB 上。 与此同时,其他组件正在全球各地的工厂中准备。 来自 Cooler Master、AVC、Aorus 和 Delta 的定制液体冷却铜块将芯片保持在最佳温度。在另一家富士康工厂,ConnectX 7 SuperNIC 正在构建中,以实现横向扩展通信,而 Bluefield 3DPU 则用于卸载和加速网络、存储和安全任务。 所有这些部件汇集在一起,被仔细地集成到GB200计算托盘中。
NVLink是英伟达发明的突破性高速互联技术,用于连接多个GPU并扩展成一个巨大的虚拟GPU。 NVLink交换机托盘由NVLink交换机芯片构建,提供每秒14.4太字节的全互连带宽。NVLink主干网络形成一个定制的、盲插式背板,集成了5000根铜缆,可提供每秒130太字节的全互连带宽。 这将所有72个Blackwell芯片,或144个GPU裸晶,连接成一个巨大的GPU。
来自世界各地的零部件陆续运达。 从富士康、纬创、广达、戴尔、华硕、技嘉、慧与、超微和其他合作伙伴处运来,由熟练的技术人员组装成机架规模的AI超级计算机。 总计120万个组件,2英里的铜缆,130万亿个晶体管,重达1800公斤。从蚀刻到晶圆上的第一个晶体管到固定Blackwell机架的最后一颗螺栓,每一步都承载着合作伙伴的奉献、精确和工艺。 Blackwell不仅仅是一个技术奇迹,更证明了科技生态系统的奇迹。为此共同取得的成就感到无比自豪。
因此,今天我们宣布,富士康、英伟达、台积电,我们将在这里为人工智能基础设施和人工智能生态系统建造第一台巨型人工智能超级计算机。
谢谢。有谁需要一台人工智能计算机吗?有听众席上的任何人工智能研究人员吗?每一位学生、每一位研究人员、每一位科学家、每一家初创公司、每一家大型成熟公司,台积电本身已经进行了大量的人工智能和科学研究。富士康在机器人技术方面也做了大量的工作。我知道听众席上还有许多其他的公司,稍后会提到,你们也在进行机器人技术研究和人工智能研究。因此,拥有世界一流的人工智能基础设施确实非常重要。
所有这些都是为了我们能够构建一个非常大的芯片。NVLink 和 Blackwell,这一代的技术,使我们能够创造出这些令人难以置信的系统。这是来自和硕、广达电脑、纬创和纬颖的系统。这是来自富士康、技嘉和华硕的系统。可以看到它的正面和背面。它的整个目标是利用这些 Blackwell 芯片,可以看到它们有多大,并将它们变成一个巨大的芯片。当然,实现这一目标的能力是由 NVLink 提供的。但这低估了系统架构的复杂性,以及将它们连接在一起的丰富的软件生态系统。由 150 家公司共同构建的整个生态系统。这种架构以及技术、软件和产业中的整个生态系统,是三年工作的成果。这是一项大规模的工业投资。
现在,我们希望让任何想构建数据中心的人都能做到。它可以是大量的英伟达GB200或300,以及英伟达的加速计算系统。也可以是其他公司的产品。
所以今天,我们要宣布一件非常特别的事情。我们要宣布英伟达 NVLink Fusion。NVLink Fusion 旨在让可以构建半定制的 AI 基础设施。不仅仅是半定制芯片,因为那已经是过去式了。需要构建 AI 基础设施。而且每个人的 AI 基础设施都可能略有不同。有些人可能拥有更多的 CPU,有些人可能拥有更多的英伟达 GPU,还有些人可能拥有某种半定制的 ASIC。而那些系统构建起来极其困难。并且它们都缺少一个至关重要的要素。这个至关重要的要素叫做NVLink。NVLink可以扩展这些半定制系统,并构建真正强大的计算机。所以今天,我们宣布推出NVLink Fusion。NVLink Fusion的工作方式大致如下。这是英伟达平台。100%英伟达。
您拥有英伟达CPU、英伟达GPU、NVLink交换机,来自英伟达的网络,名为Spectrum X或InfiniBand,网卡,网络互连,交换机。整个系统,整个基础设施都是端到端构建的。
现在,当然,您可以随意混合搭配。而且今天我们使您甚至可以在计算层面上进行混合搭配。这将是您使用定制专用集成电路(ASIC)所做的事情。我们有很多优秀的合作伙伴,他们正在与我们合作,以集成您特殊的TPU或您特殊的ASIC,您特殊的加速器。
而且它不一定是转换器加速器。它可以是您想集成到大型纵向扩展系统中的任何类型的加速器。我们创建了一个NVLink芯片模块,它基本上是一个紧挨着您的芯片的交换机。将会有IP可用于集成到您的半定制ASIC中。
然后,一旦您完成了这些,它就可以直接安装到计算板中,并且可以安装到AI超级计算机的生态系统中。
现在,也许您想要的是使用您自己的CPU。您已经构建自己的CPU一段时间了,也许您的CPU已经建立了一个非常庞大的生态系统,并且您希望将NVIDIA整合到您的生态系统中。现在,我们使您能够做到这一点。您可以通过构建自定义CPU来实现这一点。
我们为您提供NVLink芯片间接口,以便集成到您的专用集成电路(ASIC)中。我们使用NVLink芯片组进行连接,现在它可以连接并直接毗邻Blackwell芯片和我们的下一代Rubin芯片。再次强调,它完全适合这个生态系统。
这项令人难以置信的工作成果现在变得灵活和开放,供所有人集成。因此,您的人工智能基础设施可以包含一些NVIDIA组件,还有很多您的自有组件,很多CPU,很多ASIC,也许还有很多NVIDIA GPU。
因此,在任何情况下,您都可以受益于使用NVLink基础设施和NVLink生态系统,并且它与Spectrum X完美连接。所有这些都具有工业强度,并且受益于已经使其成为可能的庞大工业合作伙伴生态系统。这就是NVLink Fusion。
我们有一些很棒的合作伙伴,如LCHIP、Astera Labs、Marvell,以及联发科,他们将与我们合作,与ASIC或半定制客户、超大规模企业,以及希望构建这些东西的CPU供应商合作,他们将成为他们的半定制ASIC供应商。
我们还有富士通和高通,他们正在构建带有NVLink的CPU,以集成到我们的生态系统中。
Cadence和Synopsys,我们与他们合作将我们的IP转移给他们,以便他们可以与所有人合作,并将该IP提供给所有芯片。
所以这个生态系统非常棒。但这恰恰突显了NVLink Fusion生态系统的优势。一旦与他们合作,将立即融入整个更大的NVIDIA生态系统,从而扩展到这些AI超级计算机中。
现在来谈谈一些新的产品类别。已经展示了几款不同的计算机。然而,为了服务于世界上的绝大多数人,仍然缺少一些计算机。所以将要谈谈它们。
在此之前,想通报一下,我们称之为DGX Spark的这款新计算机已经全面投产。DGX Spark即将就绪,不久即可上市,可能就在几周内。
我们有非常棒的合作伙伴与我们合作,如戴尔、HPI、华硕、微星、技嘉、联想。他们是与我们合作的杰出伙伴。这就是DGX Spark。这实际上是一台量产机型。这是我们的版本。然而,我们的合作伙伴正在构建许多不同的版本。
这是为原生 AI 开发者设计的。如果是一名开发者、一名学生、一名研究人员,而且不想总是打开云端,并进行准备工作,然后在完成后再进行清理,那么就会希望拥有自己的,基本上是自己的 AI 云就坐在旁边,并且它始终开启,始终等待着。它允许进行原型设计、早期开发,这就是它令人惊叹的地方。这就是 DGX Spark。这是一个千万亿次浮点运算和128千兆字节。
在2016年,当我交付DGX One时,这只是挡板,我无法抬起一整台电脑,它重达300磅。这是DGX One,这是一个千万亿次浮点运算和128千兆字节。当然,这是128千兆字节的HBM内存。这是128千兆字节的LPDDR5X。实际上,性能非常相似。但最重要的是,能做的工作,可以在这里做的工作与在这里能做的工作相同。这在仅仅大约10年的时间里,是一项了不起的成就。
这是DGX Spark,适合任何想要拥有自己的人工智能超级计算机的人。我会让所有的合作伙伴自己定价,但可以肯定的是,每个人都能在圣诞节拥有一台。
我还有另一台电脑想展示。如果那还不够,并且仍然想要拥有自己的个人电脑,这位是珍妮·保罗女士。如果那台对你来说不够大,这里还有一台。这又是另一台台式机,将由戴尔、惠普、华硕、技嘉、微星、联想提供。它将从Box、Lambda等卓越的工作站公司提供。这将是你自己的个人DGX超级计算机,能让你从一个墙壁插座中获得你能获得的最高性能。你可以把它放在你的厨房里,但只能勉强放得下。如果把这个放在厨房里,然后有人启动微波炉,我认为那就是极限了。
这就是极限,这就是你能从墙上插座获得的极限。这是一个DGX工作站。它的编程模型和我展示的那些巨型系统的编程模型是相同的。这就是令人惊叹的地方。单一架构,它拥有足够的能力和性能来运行一个万亿参数的AI模型。记住,Llama是Llama 70B。一个万亿参数的模型在这台机器上将会运行得非常出色。这就是DGX工作站。
这些系统都是AI原生的,是为新一代软件而构建的计算机。它不必与 x86 兼容,不必运行传统的 IT 软件,不必运行虚拟机监控程序,不必运行 Windows。这些计算机是为现代人工智能原生应用程序设计的。当然,这些人工智能应用程序可以是可以通过传统和经典应用程序调用的 API。但是,为了将人工智能带入一个新世界,而这个新世界是企业 IT,我们必须回到我们的根源,并且必须重新发明计算并将人工智能带入传统的企业计算中。
现在,我们所知的企业计算,实际上是三个层次,不仅仅是计算层,而是计算、存储和网络。始终是计算、存储和网络。正如人工智能已经改变了一切,可以推断,人工智能也必然改变了企业IT的计算、存储和网络。那么,这个底层必须被彻底改造,而我们正在进行改造。
我将展示一些新产品,这些产品将为我们开启、解锁企业IT。它必须与传统的IT行业协同工作,并且必须增加一种新的能力。对于企业而言,这种新的能力就是代理式人工智能。
基本上就是数字营销活动经理、数字研究员、数字软件工程师、数字客服、数字芯片设计师、数字供应链经理,以及过去所做所有工作的数字化人工智能版本。
代理式人工智能具有推理、使用工具以及与其他人工智能协同工作的能力。在很多方面,这些都是数字劳工,是数字雇员。
世界正面临劳动力短缺,工人短缺。预计到2030年,劳动力短缺将达到约3000万到5000万,这实际上限制了世界经济的增长能力。因此,现在我们有了这些可以协同工作的数字代理。英伟达(NVIDIA)现在有100%的软件工程师都配备了数字代理,以便它们能够帮助、协助开发更好的代码,提高生产力。
在未来,将会看到一层代理人工智能,人工智能代理。过去我们有人力资源部管理人力劳动者,未来信息技术部门将成为数字劳动者的人力资源部。因此,必须为当今的IT产业、当今的IT从业者创造必要的工具,使他们能够管理、改进、评估在其公司内部工作的一整个AI代理家族。这就是我们想要构建的愿景。
但首先,我们必须重新发明计算。企业IT运行在x86架构上,运行传统的软件,例如来自VMware、IBM Red Hat或Nutanix的虚拟机管理程序。它运行着大量的经典应用程序。我们需要拥有能够执行相同操作的计算机,同时还要增加一种称为代理人工智能的新功能。
这是全新的 RTX Pro 企业级和 Omniverse 服务器。这台服务器可以运行所有程序,当然,它有 x86 架构,可以运行所有经典的虚拟机管理程序。它在这些虚拟机管理程序中运行 Kubernetes。因此,IT 部门想要管理网络、集群以及编排工作负载的方式,与之前的工作方式完全相同。它甚至能够将 Citrix 和其他虚拟桌面流式传输到 PC。今天世界上运行的任何东西都应该能在这里运行。Omniverse 在这里运行得非常完美。除此之外,这还是企业级人工智能代理的计算机。这些人工智能代理可能仅是文本形式,也可能是计算机图形。像是小 TJ,来到你面前,像是小玩具 Jensen 来拜访你,帮助你工作。因此,这些人工智能代理可以是文本形式,可以是图形形式,也可以是视频形式。
所有这些工作负载都可以在此系统上运行。无论何种模态,我们所知的世界上每一个模型、每一个应用程序都应该运行于此,即使是 Crysis 也能在这里运行。
连接这8个GPU(Blackwell,新的Blackwell RTX,RTX Pro 6000s)的是这块新的主板。这块新的主板实际上是一个交换网络。
CX8是一个新的芯片类别,首先它是一个交换机,其次它是一个网络芯片,也是世界上最先进的网络芯片。CX8现在已进入批量生产阶段。在CX8中,可以插入GPU。CX8都在后面,PCI Express 连接在此处,CX8 在它们之间进行通信。而且网络带宽非常高,达到每秒800千兆位。这是插入到这里的收发器。因此,每个GPU都有它们自己的网络接口。现在,所有GPU都在东西向流量上与其他所有GPU进行通信,性能惊人。
这是 RTX Pro。在人工智能工厂的世界中,思考性能的方式是吞吐量,即每秒处理的token数。你的工厂产出越多,你生产的token就越多。因此,吞吐量衡量的是每秒处理的token数。
然而,每个AI模型都不一样,有些AI模型需要更多的推理。因此,你需要每个用户的性能非常高,每个用户的每秒token数必须很高。工厂要么喜欢高吞吐量,要么喜欢低延迟,但它不喜欢两者兼得。
因此,挑战在于如何创建一个操作系统,使我们能够在拥有高吞吐量的同时,拥有非常低的延迟,即交互性,每用户每秒令牌数。
这张图表告诉您一些关于计算机整体性能,以及工厂整体计算机性能的信息。这些不同的颜色代表了您必须配置我们所有GPU的不同方式,才能实现这种性能。有时您需要流水线并行,有时您需要专家并行,有时您希望进行批处理,有时您希望进行推测性解码,有时您不希望。因此,所有这些不同类型的算法必须根据工作负载分别且不同地应用。
帕累托曲线(即外围区域)的总体区域代表您工厂的能力。请注意,Hopper(世界上最著名的计算机,Hopper H100,HGX,225000美元的Hopper)就在那里。
您刚才看到的Blackwell企业级服务器,其性能是现有服务器的1.7倍。
Llama70B与DeepSeek R1相比,后者性能是前者的4倍。 这得益于DeepSeek R1的优化,它确实是世界人工智能产业的一份礼物。 其中计算机科学的突破非常显著,为美国和世界各地的研究人员开启了大量的优质研究。 无论在哪里,DeepSeek R1都对人们如何看待人工智能、推理以及推理型人工智能产生了影响。 他们为行业和世界做出了巨大贡献。 DeepSeek R1的性能是当前最先进的H100的4倍,这使其更具现实意义。
如果您正在构建企业人工智能,我们现在为您提供一台出色的服务器,一个出色的系统。 它是一台可以运行任何程序的计算机,一台具有惊人性能的计算机,无论是x86还是AI程序都能运行。 我们的RTX Pro服务器正在行业内所有合作伙伴处批量生产,这很可能是有史以来规模最大的上市系统。
计算平台和存储平台是不同的。 人们查询的是像SQL这样的结构化数据库,但AI想要查询非结构化数据。 它们需要语义和意义,所以我们需要创建一个新型的存储平台,这就是英伟达AI数据平台。
在最顶层,就像SQL服务器、SQL软件以及存储供应商提供的文件存储软件一样,存在一个非常复杂的软件层,它与存储相关联。 大多数存储公司本质上都是软件公司,而那个软件层极其复杂。 因此,在新型存储系统之上,将是一个我们称之为IQ的新型查询系统,英伟达AI IQ,或者IQ。 它是最先进的,非常出色,并且正在与存储行业的几乎所有人合作。
未来的存储不再是位于一排存储设备之上的CPU,而将会是位于存储机架顶端的GPU。 这样做的原因是,你需要系统嵌入并找到非结构化数据、原始数据中的意义。 你必须进行索引、搜索和排序。 因此,这个过程是计算密集型的。 所以未来大多数存储服务器的前端都会有一个计算节点,即GPU计算节点。
这是基于我们创建的模型。 我接下来要展示的几乎所有内容都始于优秀的AI模型。 我们创建AI模型,并在开源AI模型的后训练中投入大量的精力和技术。 我们使用对您完全透明的数据对这些AI模型进行后训练。 这些数据是安全可靠的,可以完全放心地使用和训练,我们会将该列表提供给您查看。
它是完全透明的,我们会向您提供数据。我们对模型进行后训练,后训练模型性能非常出色。
它目前可供下载,是开源的推理模型。LamaNemotron推理模型是世界上最好的,它的下载量非常巨大。
我们也用一大堆其他AI模型将其包围,以便您可以进行IQ,即检索部分。它比市面上现有的快15倍,查询结果好50%。这些模型都是可用的,都可以提供给您,IQ蓝图是开源的。
我们与存储行业合作,将这些模型集成到他们的存储堆栈、他们的AI平台中。这是一个广阔的领域,这就是它的样子。
我不打算深入探讨,我只是想让大家感受一下集成到他们平台中的人工智能模型的质感。让我们看看VAST都做了些什么。主动式人工智能改变了企业利用数据进行决策的方式。
仅仅三天时间,VAST就利用NVIDIA IQ蓝图及其加速人工智能数据平台构建了一个销售研究人工智能代理。利用Nemo Retriever,该平台持续提取、嵌入和索引数据,以实现快速的语义搜索。
首先,该代理起草一个概要,然后接入CRM系统、多模态知识库和内部工具。最后,它使用Lama Nemotron将该概要转化为一个循序渐进的销售计划。
过去需要几天才能完成的销售计划,现在可以通过一个人工智能提示开始,并在几分钟内完成计划。借助VAST加速的人工智能数据平台,各组织可以为每位员工创建专门的代理。
这就是VAST。戴尔拥有卓越的人工智能平台,是世界领先的存储供应商之一。日立拥有卓越的人工智能平台,人工智能数据平台。IBM正在与NVIDIA Nemo合作构建人工智能数据平台。NetApp正在构建人工智能平台。
正如您所见,所有这些都对您开放。如果您正在构建一个具有语义查询人工智能前端的人工智能平台,那么NVIDIA Nemo是世界上最好的。这样,您就拥有了企业计算能力和企业存储能力。
下一部分是一个名为AIOps的新的软件层。正如供应链有他们的运营,人力资源有他们的运营一样,未来,IT也将有AIOps。他们将管理数据,微调模型,评估模型,为模型设置护栏,保障模型的安全。
我们拥有大量必要的库和模型,可以集成到AIOps生态系统中。我们有优秀的合作伙伴来帮助我们做到这一点,并将其推向市场。CrowdStrike正在与我们合作。DataIQ正在与我们合作。DataRobots正在与我们合作。
正如你所见,这些都是人工智能运营,为企业中的主体人工智能创建微调模型和部署模型。 你可以看到NVIDIA的库和模型集成在其中。
DataRobots之后,这里是DataStacks。 这是Elastic。 据说他们被下载了4000亿次。 这是Nutanix。 这是红帽。 这是趋势科技。
这就是我们将为全球企业IT带来为您的所有工作添加人工智能能力的方式。 您不会把企业IT组织中的所有东西都拆掉,因为公司必须运转。 但我们可以把人工智能添加进去。 现在我们有了具备企业级就绪状态的系统,以及令人难以置信的生态系统合作伙伴。
杰夫·克拉克,伟大的杰夫·克拉克。 他长期以来一直是我们的合作伙伴。 还有杰夫·克拉克。 因此,我们的生态系统合作伙伴,戴尔和其他公司,将把这个平台,这些平台,带给全球的企业IT领域。
让我们来谈谈机器人。 智能体人工智能,类智能体人工智能,人工智能智能体,有很多不同的说法,智能体本质上是数字机器人。 原因是机器人能够感知、理解和规划。 而这基本上就是智能体所做的事情。
但我们也希望建造实体机器人。 这些实体机器人,首先,需要具备学习成为机器人的能力。 在现实世界中高效地学习成为机器人的能力是不可能实现的。 你必须创建一个虚拟世界,让机器人在其中学习如何成为一个优秀的机器人。 那个虚拟世界必须遵守物理定律。
大多数物理引擎都无法高保真地处理刚体和柔体模拟。 因此,我们与 DeepMind、谷歌 DeepMind 和迪士尼研究院合作,共同构建了 Newton,世界上最先进的物理引擎。 它将于7月开源,它的功能令人难以置信。 它完全通过GPU加速。 它是可微的,因此你可以从经验中学习。 它的保真度极高,它是超实时的。
因此我们可以使用那个牛顿引擎,并且它已集成到Mujoco中。 它已集成到NVIDIA的Isaac Sim中。 所以无论你使用什么仿真环境和框架。 因此,通过它,我们可以让这些机器人栩栩如生。
你能想象其中一个小家伙,或者几个小家伙在房子里到处跑吗? 追逐你的狗? 让他们发疯?
你看到了发生了什么吗? 那不是动画,而是一个模拟。 他在沙子和泥土中打滑。 所有这些都是模拟的。
机器人的软件在模拟中运行,这是一种模拟而非动画。未来,我们将采用训练好的人工智能模型,并将其置入模拟环境中的机器人中,让它学习如何成为一个优秀的机器人。
我们正在研究多项举措来帮助机器人产业。我们已经在自主系统领域工作了一段时间。我们的自动驾驶汽车基本上包含三个系统:创建人工智能模型的系统(使用GB200、GB300),训练人工智能模型的系统(使用Omniverse模拟人工智能模型),以及将人工智能模型置入自动驾驶汽车中的系统。
今年,我们将在全球范围内推广梅赛德斯所使用的端到端自动驾驶汽车技术栈。我们创建所有这些,并以与我们在其他任何地方工作方式完全相同的方式上市。我们创建整个技术栈,并将其开放。合作伙伴可以使用他们想使用的任何东西。他们可以使用我们的计算机,但不能使用我们的库;他们可以使用我们的计算机、我们的库以及我们的运行时环境。无论您想使用多少,都取决于您。
由于存在许多不同的工程团队、不同的工程风格和不同的工程能力,我们希望确保以一种尽可能方便所有人都能够集成英伟达技术的方式来提供我们的技术。如果您从我这里购买所有东西,我会很高兴,但请至少从我这里购买一些东西。我们非常务实。
因此,我们正在机器人系统中做完全相同的事情,就像汽车一样。这是我们的Isaac Groot平台。仿真环境完全相同,都是Omniverse。训练系统也是相同的。当你完成模型后,你把它放入这个Isaac Groot平台。
Isaac Groot平台始于一台全新的计算机,名为Jetson Thor,它才刚刚开始投入生产,是一个令人难以置信的处理器。这款机器人处理器可以用于自动驾驶汽车,也可以用于人或机器人系统。
在此之上是一个我们称之为NVIDIA ISAAC的操作系统,这是一个运行时环境,它进行所有的神经网络处理、传感器处理、所有管线处理,并输出驱动结果。在其之上,是我们与一个出色的机器人团队创建的预训练模型,他们正在对这些模型进行预训练。创建这一切所需的所有工具,包括模型本身,我们都会提供。
今天我们宣布 Isaac Groot N1.5 现已开源,并向全世界开放使用。它已经被下载了6000次,来自社区的欢迎、喜爱和赞赏令人难以置信。
以上是关于模型创建方面的内容,我们公开了我们创建模型的方式。
机器人技术,或者说人工智能领域总体上最大的挑战在于数据策略。你的数据策略必须投入大量的研究和技术。
就机器人技术而言,人类演示非常重要,就像我们向孩子们演示,或者教练向运动员演示一样。你演示如何使用遥控操作,你向机器人示范如何执行任务,然后机器人可以从该示范中进行泛化。因为人工智能可以泛化,并且我们拥有泛化技术,可以从该演示中泛化出其他技术。
那么,如果你想教机器人一大堆技能呢?你需要多少不同的遥控操作人员?结果表明需要很多。所以我们决定使用人工智能来放大人类示范系统。
因此,这本质上是从真实到真实,并使用人工智能来帮助我们扩展、放大人类示范过程中收集的数据量,以训练人工智能模型。
通用机器人时代已经到来,伴随着机电一体化、物理人工智能和嵌入式计算的突破。正当其时,因为劳动力短缺限制了全球工业增长。
机器人制造商面临的主要挑战是缺乏大规模的、真实的和合成的数据来训练模型。人工示范不具备可扩展性,受限于一天中的小时数。
开发人员可以使用NVIDIA Cosmos物理人工智能世界基础模型来放大数据。Groot Dreams是一个基于Cosmos的蓝图,用于大规模生成合成轨迹数据。
一种真实到真实的数据工作流程:首先,开发人员通过在单一环境中对单一任务进行遥操作记录的人工示范来微调Cosmos。然后,他们用一张图片和新的指令提示模型来生成梦想,或者说是未来的世界状态。Cosmos是一个生成模型,因此开发者可以使用新的动作词进行提示,而无需捕获新的遥操作数据。
一旦生成了大量梦想,Cosmos会推理并评估每个梦想的质量,选择最佳的梦想用于训练。但这些梦想仍然只是像素。机器人从行动中学习。
Groot Dreams蓝图从2D梦想视频中生成3D动作轨迹。然后,这被用于训练机器人模型。Groot Dreams让机器人能够学习各种各样的新动作,而只需极少的人工捕获。
因此,一小队人类演示者现在可以完成成千上万人的工作。Groot Dreams让开发者们在解决机器人数据挑战方面更进一步。
为了实现机器人技术,你需要人工智能。但为了教导人工智能,你需要人工智能。因此,这确实是智能体时代的伟大之处,我们需要大量的合成数据生成。机器人技术,需要大量的合成数据生成。
被称为微调的技能学习,涉及到大量的强化学习和巨大的计算量。因此,人工智能的训练、开发和运行都需要巨大的计算量。
正如之前提到的,世界正面临严重的劳动力短缺。人形机器人如此重要的原因是,它是唯一一种几乎可以在任何棕地环境中部署的机器人。它不必是绿地环境,它可以融入我们创造的世界,完成我们为自己设定的任务。我们为自己设计了世界,现在我们可以创造一个机器人来适应这个世界,并帮助我们。
现在,人形机器人最令人惊叹之处不仅仅在于,如果它能正常运作,它将具有相当高的通用性。它很可能是唯一有可能成功的机器人。其原因在于技术需要规模效应。我们目前拥有的大多数机器人系统产量太低,这些低产量系统永远无法达到足够的技术规模,从而无法使飞轮运转足够远、足够快,以至于我们愿意投入足够的技术来改进它。但人形机器人很可能成为下一个数万亿美元级的产业,而且技术创新速度非常快。计算和数据中心的消耗是巨大的,但这是需要三台计算机才能实现的应用之一。一台计算机用于学习的人工智能,一台计算机是仿真引擎,人工智能可以在虚拟环境中学习如何成为机器人,然后进行部署。一切移动的物体都将是机器人。
当我们将这些机器人放入工厂时,请记住,工厂也将是机器人化的。今天的工厂非常复杂,例如达美航空的生产线,他们正在为机器人化的未来做准备。它已经是机器人和软件定义的了,并且未来将会有机器人在其中工作。
为了让我们创造和设计能够像一个舰队一样,像一个团队一样运作的机器人,在一个也是机器人化的工厂中协同工作,我们必须赋予其 Omniverse(全宇宙)来学习如何协同工作。而那个数字孪生,现在有了一个机器人的数字孪生,拥有所有设备的数字孪生,拥有一个工厂的数字孪生。这些嵌套的数字孪生将成为 Omniverse 能够实现的一部分。这是达美航空的数字孪生,这是纬创资通的数字孪生。
这些都是数字孪生,都是模拟,看起来非常漂亮。图像看起来非常漂亮,但它们都是数字孪生。这是和硕的数字孪生,这是富士康的数字孪生,这是技嘉的数字孪生,这是澳洲航空的,这是纬创资通的。台积电正在为其下一个晶圆厂构建一个数字孪生。
全球正在规划价值5万亿美元的工厂。未来三年内,将新建价值5万亿美元的工厂。
世界正在重塑,再工业化正在全球推进,新的工厂正在各地兴建。这对我们来说是一个巨大的机遇,确保其建造得良好、经济高效且准时。
将一切都放入数字孪生体中,是迈出的绝佳第一步,并为机器人化的未来做好准备。建造这价值5万亿美元的工厂,还不包括我们正在建造的一种新型工厂。甚至我们自己的工厂,也将其放入数字孪生体中。这是英伟达人工智能工厂的数字孪生体。高雄也是一个数字孪生体。他们将高雄制造成了一个数字孪生体。目前已经有成千上万栋建筑,数百万英里的道路。
台积电、富士康、纬创、和硕、台达电子、广达、云达科技和技嘉正在 NVIDIA Omniverse 上为制造过程的每一步开发数字孪生体。台积电与 MED-AI 从二维 CAD 生成整个晶圆厂的 3D 布局,并在 CUOP 上开发人工智能工具,可以模拟和优化跨多个楼层的复杂管道系统,从而节省数月时间。广达、纬创和和硕计划在实际建造之前,先以虚拟方式规划新的设施和生产线,通过减少停机时间节省数百万美元的成本。和硕模拟焊膏点胶,从而减少生产缺陷。广达使用 Siemens Teamcenter X 与 Omniverse 来分析和规划多步骤流程。富士康、纬创和广达利用 Cadence Reality Digital Twin 模拟测试数据中心的电力和散热效率。
为了开发具备人工智能的实体机器人,每家公司都将其数字孪生体用作机器人训练场,以开发、训练、测试和模拟机器人。无论是机械臂、自主移动机器人(AMR)、人形机器人,还是视觉人工智能代理,在执行任务或作为多元化团队协同工作时,均可利用数字孪生体。当通过物联网(IoT)连接到物理孪生体时,每个数字孪生体都成为一个实时交互式仪表板。和硕利用 NVIDIA Metropolis 构建人工智能代理,以帮助员工学习复杂的技术。
LinkerVision 公司和高雄市利用数字孪生体来模拟不可预测情境的影响,并构建可监控城市摄像头流的人工智能代理,向急救人员提供即时警报。
工业人工智能时代已经到来,由科技领军企业率先开创,由 Omniverse 驱动。
作为最先进产业的中心,人工智能和机器人技术的发源地,理应如此。这里是世界上最大的电子产品制造区域。
人工智能和机器人技术将变革我们所做的一切。历史上第一次,各位所做的工作已经彻底改变了每一个行业,现在它将回过头来彻底改变各位的行业。
GeForce将人工智能带到了世界。人工智能又回来并改变了GeForce。各位将人工智能带到了世界,人工智能现在会反过来改变各位所做的一切。和各位一起工作非常愉快。谢谢。
我有一个新产品要发布。我们已经在太空船坞开发了一段时间。现在是我们揭晓我们有史以来建造的最大的产品之一的时候了。而它就停在外面等着我们。让我们看看情况如何。英伟达星系(NVIDIA Constellation)。
正如各位所知,我们一直在发展。我们与各位的所有合作关系也一直在发展。我们这里的工程师人数一直在增长。因此,我们的发展已经超出了目前办公室的局限。所以我打算为他们建造一个全新的英伟达办公室。它被称为英伟达星系(NVIDIA Constellation)。
我们也在选择场地。我们一直在选择场地,各个城市的市长们都对我们非常友善。我认为我们达成了一些不错的交易。我不太确定,但黄金地段就是黄金地段。今天我非常高兴地宣布,NVIDIA Constellation 将落户北投士林。
我们已经就租赁权的转让事宜与现有租赁权所有者进行了谈判。然而,我了解到,为了让市长批准该租赁,他想知道台北市民是否同意我们在这里建造一个大型、美丽的NVIDIA Constellation。各位同意吗?他还让各位给他回电话。所以各位确信知道他的号码。大家都立刻给他打电话,告诉他你认为这是个很棒的主意。
这将是英伟达星空平台。我们将要构建它。我们会尽快开始构建。我们需要办公空间。英伟达星空平台,北投士林。非常令人兴奋。
我想感谢各位多年来的合作。我们正面临着千载难逢的机会。摆在我们面前的机遇是前所未有的。在我们共同经历的这段时间里,我们第一次不仅在创造下一代信息技术,我们已经这样做了好几次,从个人电脑到互联网,再到云,再到移动云。我们已经这样做了好几次。
但这一次,我们不仅在创造下一代信息技术,事实上,我们正在创造一个全新的产业。
这个全新的产业将使我们面临着巨大的机遇。
我期待与各位合作,共同构建人工智能工厂、企业智能代理、机器人。感谢各位杰出的合作伙伴,与我们共同围绕统一架构构建生态系统。
因此,我想感谢各位今天的光临。祝各位Computex2025愉快。谢谢。
文章标题:黄仁勋:下一个浪潮是物理人工智能
文章链接:https://www.huxiu.com/article/4368382.html
阅读原文:黄仁勋:下一个浪潮是物理人工智能_虎嗅网