9月25日,英伟达创始人黄仁勋戴着显眼的红色眼镜,到Bg2 Pod做了一场播客对话,时长超过100分钟。
而去年10月4日,同样的两个主持人布拉德·格斯特纳(Brad Gerstner)和克拉克·唐(Clark Tang)还走进英伟达总部,跟黄仁勋畅聊80分钟。
当时黄仁勋提出了一个被广泛引用的观点:AI的真正爆发点不是训练,而是推理,而且推理的增长幅度将是“十亿倍”。
一年之后,他说,“其实当时还是低估了”。
这次访谈,是黄仁勋众多频繁演讲交流中比较深入的一次,而且直面了市场近期最关心的争议。
比如,英伟达既是OpenAI的投资者,又是其重大供应商,似乎形成了某种“循环收入”?比如,未来供给扩张过快,2026年会不会出现产能过剩?以及英伟达的护城河究竟有多深?
黄仁勋直面所有问题。
“我们的股权投资不与采购挂钩,它只是一次押注未来巨头的机会。”
“我认为OpenAI很可能会成为下一个万亿美元市值的超大规模公司。如果真是这样,那么在它成长到那个规模之前进行投资,就是我们能想到的最明智的决策之一。”
“所以如果有人告诉我,未来全球每年的AI基础设施资本支出将达到5万亿美元,我会觉得这个数字完全合理。”
“在通用计算全面完成向加速计算和AI的迁移之前,我认为出现供过于求的可能性极低。这还需要几年时间。”
“极致协同设计的核心,就是同时优化模型、算法、系统和芯片。摩尔定律时代,你只要让CPU变快,一切就会自然提速。但当芯片性能停滞,你必须跳出框架创新。这就是英伟达改变游戏规则的地方。”
“外界对我们有误解,仍然停留在‘英伟达是一家芯片公司’的印象里。没错,我们造芯片,而且是世界最顶尖的芯片。但英伟达的本质是一家AI基础设施公司。”
“壁垒在于两点:协同设计的极致性和规模的极致性。”
他还谈到密切的合作伙伴埃隆·马斯克,盛赞说,“埃隆的巨大优势在于,他能在一个人的大脑里整合并处理这些相互依赖的复杂系统,甚至包括融资。他本身就是一个巨大的GPT,一台超级计算机,是终极的GPU”。
而谈到中国时,黄仁勋的赞美一如既往,明确表示:这是一个充满活力、富有创业精神的高科技产业环境,现代化程度很高。他甚至说,“他们只比我们慢了‘纳秒’而已”。
面向未来,黄仁勋描绘了一张蓝图:“我认为在未来五年内,会有一件特别酷的事情发生:人工智能将与机电一体化、机器人技术真正融合。”
可以想象的是,“每个人都能拥有自己的R2-D2”。是的,就是星球大战中那个陪伴了多个天行者的聪明活泼的忠诚伙伴。
听下来紧迫感很强,而这列火车正在指数级加速。黄仁勋的提醒是,“最聪明的做法,就是在它还没快到无法企及之前,赶紧上车,和它一起加速前进。”
全文很长,认真读了好几遍,聪明投资者(ID: Capital-nature)把大家可能最关注的几个话题整理出来,mark并分享下。
推理革命的增长将是十亿倍量级
格斯特纳:如今你超过40%的收入来自推理业务。而真正的推理革命,也就是“链式推理”,才刚刚拉开序幕,对吗?
黄仁勋:它的增长将会是十亿倍。我们不只是面对一个行业的增长,而是站在一场全新的工业革命前夜。
格斯特纳:大约一年半前,大家在预训练领域情绪有些悲观,很多人说:“糟了,预训练到头了,我们投得太多了。”可你却说:“推理的增长不是一百倍、一千倍,而是十亿倍。”
黄仁勋:我得承认,其实我当时还是低估了。
现在我们已经清楚有三条规模定律:预训练规模定律、后训练规模定律,以及推理规模定律。
所谓“后训练”,本质上就像AI在练习一项新技能。它会不断尝试各种方法,直到做对为止。而要做到这一点,就必须依赖推理。
今天的强化学习,其实已经把训练和推理完全融合在一起,这让整个过程变得更加复杂,而这就是所谓的“后训练”。
过去的推理是一种“一次性”的过程。但今天我们强调的是新的推理方式,让模型在给出答案之前先“思考”。
一个模型“思考”的时间越长,答案的质量就越高。在这个思考过程中,它可以查资料,核实事实,学习新知识。再思考,再学习,最后生成答案。
关键在于,不要急于给出第一个答案。
所以,真正推动AI演进的,并不只是单一的预训练,而是预训练、后训练和推理三者共同作用。
格斯特纳:和一年前相比,你现在是不是对“推理会实现十亿倍增长”、以及“这种增长会把智能推向怎样的新高度”更有信心了?
黄仁勋:我今年的信心更足,看看如今的AI代理系统就知道了。
AI已经不再是单一的语言模型,而是一个由多个模型组成的系统。它们可以同时运行,调用工具,做研究,处理各种任务,而且都是多模态的。
OpenAI很可能会成为下一个“万亿美元巨头”
格斯特纳:几天前,你宣布了与OpenAI的Stargate项目达成重大合作。能否谈谈这次合作对你意味着什么?以及为什么你认为这对NVIDIA来说是明智之举?
黄仁勋:我先回答最后一个问题,再展开说。
我认为OpenAI很可能会成为下一个万亿美元市值的超大规模公司。因为它和Meta、谷歌一样,既有面向消费者的服务,又有面向企业的业务。这样的双重布局,让它极有可能成为全球下一个万亿级巨头。
如果真是这样,那么在它成长到那个规模之前进行投资,就是我们能想到的最明智的决策之一。
投资必须投在自己熟悉的领域,而这恰好是我们的核心专长。而且他们愿意让我们参与,这非常难得。
我们和OpenAI已经在多个层面合作。这次新合作特别之处在于,OpenAI第一次决定自建AI基础设施。
这意味着,我们会直接在芯片、软件、系统乃至“AI工厂”层面与他们合作,帮助OpenAI成为一个完全自营的超大规模公司。
这个过程会持续相当长的时间。这背后是他们正在经历的“双重指数级增长”。
第一个指数增长来自用户数。因为AI的效果越来越好,应用场景越来越多,几乎所有应用都在接入OpenAI,导致使用量爆炸式增加。
第二个指数增长来自单次使用的计算量。过去AI是“一次性”推理,现在则需要经过“思考”才能给出答案。
格斯特纳:你刚才提到“OpenAI极有可能成为万亿美元公司”,在此之前,他们的数据中心建设主要依赖微软,而现在,他们希望掌握完整的技术栈。
黄仁勋:对,就像自己建工厂一样。他们希望和我们建立一种类似埃隆与X的关系,走向自主建设。
未来属于加速计算和人工智能
格斯特纳:华尔街25位负责研究英伟达的卖方分析师,他们的共识预测却是英伟达的增长将在2027年趋缓,到2030年的年增速只有8%。
黄仁勋:我们很清楚,但这没关系。我们一直以来都能超越他们的预期。
格斯特纳:这种观点部分源于担心:当下的短缺最终会带来未来的产能过剩。他们或许相信2026年的增长,但对2027年以后的情况心存疑虑,认为市场可能饱和。
黄仁勋:我倒不觉得这是矛盾。我从三个角度来解释下:
第一点,也是最根本的一点,是基于物理定律的必然趋势:通用计算的时代已经结束,未来属于加速计算和人工智能。
你可以这样想:全球价值数万亿美元的计算基础设施,有多少需要更新换代?
所有人都同意摩尔定律已死,通用计算的效率瓶颈已现。下一步必然是从通用计算转向加速计算。我们和英特尔的合作正是基于这个共识,通用计算必须和加速计算结合,这反而给他们带来了新机会。
第二点,人工智能的第一个落地场景其实早已无处不在,比如搜索、推荐引擎和电商。
过去,超大规模计算的基础设施主要是CPU,用来支撑推荐系统;未来,它将转向GPU,为人工智能服务。
你只要看看传统计算和超大规模计算的迁移方向,它们正在从CPU向加速计算与AI转移。支持Meta、谷歌、字节跳动、亚马逊等公司完成这一转型,就是一个数千亿美元的市场。
格斯特纳:光是考虑TikTok、Meta、谷歌服务的40亿用户,就已经产生了巨大的算力需求。
黄仁勋:没错,这一切都是由加速计算的变革驱动的。即便不算AI带来的新应用,仅仅是AI改变现有工作方式这一点,就足够庞大。
到目前为止我讲的都只是基础。就像煤油灯被电灯取代,螺旋桨飞机被喷气机取代,旧模式终将被淘汰,这很简单。
真正令人震撼的是,当我们进入AI与加速计算的时代,会诞生哪些全新的应用?这就是生成式AI的机会。
这个机会有多大?你可以类比马达取代体力劳动,而今天我们有了人工智能。我称之为“AI工厂”。这些AI超级计算机会不断生成token,用来增强人类智能。
人类智能对全球GDP的贡献有多大?大约55%到65%,差不多50万亿美元。
这50万亿美元的经济活动,未来都将被AI增强。
回到个人层面,假设我花1万美元为一位年薪10万美元的员工配一套AI系统,能让他的生产力提升一倍甚至两倍,我会不会这么做?答案是肯定的。
在英伟达,我们的每一位软件工程师、每一位芯片设计师,都已经在用AI协作。覆盖率是100%!
这意味着我们设计更多芯片,迭代更快,公司整体增长也更快。我们雇佣更多的人,效率更高,收入和利润都更高。为什么不呢?
现在,把英伟达的故事放大到全球GDP。
AI和过去的IT最大的不同在于:过去软件是提前写好的,运行在CPU上,需要人去操作;未来,AI会持续生成“通证”,机器必须不停思考才能生成。
软件将永远在线运行,而不是一次性写好。为了让AI思考,就需要一个“工厂”。
假设未来AI生成了10万亿美元的token价值,毛利率是50%,那么就需要一个价值5万亿美元的“AI工厂”——也就是AI基础设施来支撑。
所以如果有人告诉我,未来全球每年的AI基础设施资本支出将达到5万亿美元,我会觉得这个数字完全合理。
这就是未来:从通用计算转向加速计算,用AI重塑所有超大规模计算,并最终增强人类智能。
格斯特纳:我们估算,目前这个市场的年规模大约是4000亿美元。照此计算,未来的潜在市场规模(TAM)比现在要高出四到五倍。
黄仁勋:没错。阿里巴巴的吴泳铭(Eddie Wu)昨天还说,到这个十年末,他们数据中心的电力容量会增加10倍。你想想看,他们的电力翻十倍,而英伟达的收入几乎与电力消耗成正比。
他还提到另一点:token的生成速度每隔几个月就会翻倍。
这意味着什么?意味着每瓦性能必须持续呈指数级提升,这也是我们不断推出更高性能产品的原因。同样,每瓦带来的收入也会随之提升。未来,“瓦特”几乎就等同于收入。
格斯特纳:你所描绘的,实际上是这样的场景:全球GDP的增长即将再次提速,因为我们将拥有数十亿AI“同事”为我们工作。如果GDP是劳动力和资本投入的产出,那么它必然会加速。
黄仁勋:是必然的。看看AI领域正在发生什么。大语言模型、AI代理的崛起,正催生一个全新的产业。OpenAI已经是历史上营收增长最快的公司,而且还在指数级增长。
因此,AI本身就是一个高速成长的产业。而支撑它的,是“工厂”和基础设施,这也意味着我们的产业在成长。而且,下游产业同样在成长。
能源行业就是一个例子。无论是核能还是燃气轮机,正在迎来新一轮复兴。
再看看我们基础设施生态系统中的公司,几乎所有人都在增长。
供过于求的可能性要到几年以后
格斯特纳:当然,这些庞大的数字也引发了争论——会不会出现“供过于求”或者“泡沫”?扎克伯格上周在播客里就说,未来某个时点很可能出现需求的“真空期”,Meta可能在某些领域会超投100亿美元。但他认为这是可以接受的,因为这是关乎未来的必要风险。这听起来有点像“囚徒困境”,不是吗?
黄仁勋:但他们都是“快乐的囚徒”。
格斯特纳:能展开说说吗?我们估算,到2026年,AI相关收入将达到1000亿美元,这还不包括Meta,也不包括推荐引擎、搜索等现有业务的AI化部分。
黄仁勋:就算是1000亿美元吧。但整个超大规模计算行业的体量是数万亿美元。而且要记住,这个行业正在全面转向AI。
在任何人创造新市场之前,你必须先把这块基数算进去。
格斯特纳:怀疑论者会说,要支撑你的论点,我们需要看到AI收入从2026年的1000亿美元,增长到2030年至少1万亿美元。你真的认为未来五年能有这样的速度吗?
黄仁勋:我认为我们其实已经做到了。
超大规模公司们已经完成了从CPU到AI的转型,它们的收入基础如今完全依赖AI。
没有AI,TikTok无法运行;没有AI,YouTube Shorts无法运行;没有AI,Meta的个性化内容也不可能实现。过去很多依赖人工的环节,现在都交给AI了。
过去,内容是预先写好的,推荐引擎只是从有限的选项里挑选。而现在,AI能够生成无限的可能。
格斯特纳:但推荐引擎正是我们经历CPU向GPU过渡的关键驱动。在过去三四年,它们也一直在演进。
黄仁勋:没错。不过扎克伯格自己也承认,Meta在GPU应用上的确有点迟缓。GPU对Meta来说才是一两年的新事物。
至于搜索,是不是也用上了GPU?当然,这更是全新的变革。
格斯特纳:所以你的意思是,到2030年AI收入达到1万亿美元几乎是板上钉钉的事,因为我们实际上已经接近目标。你觉得在未来三到五年内,出现供过于求的概率有多大?
黄仁勋:在通用计算全面完成向加速计算和AI的迁移之前,我认为出现供过于求的可能性极低。这还需要几年时间。
我再补充一点:直到所有推荐引擎都基于AI,直到所有内容生成都基于AI——而消费者内容的生成本质上依赖推荐系统,这些传统上属于超大规模计算的应用,包括购物、电商等,都将被AI重塑。
格斯特纳:但这些新建设项目,涉及的投资是以万亿计。是不是意味着你们必须无条件地持续投入?即便经济放缓,或者出现某种过剩,你们也得继续砸钱吗?
黄仁勋:实际情况正好相反。我们在供应链的最末端,是对需求做出响应。现在,所有投资人都清楚,全球普遍存在算力短缺。
这并不是GPU产能不足,而是需求一直被低估。如果客户下单,我们就会生产。
过去几年,我们已经全面梳理过供应链。从晶圆厂到封装,再到HBM内存,都已做好准备。如果需求翻倍,我们也能随时翻倍产出。所以供应链不是问题。
我们现在只等需求信号。当云服务商、超大规模数据中心、客户们制定年度计划并给出预测时,我们就据此生产。
但迄今为止,所有的预测都被证明偏低。所以我们一直处在追赶状态。
这种追赶已经持续好几年。我们收到的每份预测,都比去年显著增加,但实际需求仍然会超过它们。
格斯特纳:你是否看到,一些传统的超大规模数据中心运营商现在都在加大投入……
黄仁勋:这是因为“第二波指数级增长”来了。第一波是AI的普及和使用量的指数上升;第二波则是推理的应用爆发。
一些超大规模客户,他们的内部工作负载非常庞大,必须从通用计算转向加速计算,所以消化产能没问题;另一些客户的工作负载更复杂多样,因此一开始对需求的判断比较犹豫。
但现在大家都明白了:他们严重低估了所需的算力。
我最看好的一类应用就是传统数据处理——包括结构化和非结构化数据。我们很快会宣布一个重大计划,把数据处理全面加速化。
要知道,目前全球绝大多数的数据处理还是跑在CPU上:Databricks、Snowflake的负载大部分是CPU,甲骨文的SQL处理也一样。几乎所有人都用CPU做SQL查询。
未来,这些都会由AI来完成。
这是一个巨大而开放的市场。对英伟达来说,这需要一个完整的加速层,以及针对特定领域的数据处理库和方法,我们必须把它们构建出来。
英伟达股权投资只是为押注未来巨头的机会
格斯特纳:也有一些反对声音。CNBC在谈论过剩和泡沫;彭博讨论的是“资金循环”和“循环收入”。
所以当你们或微软、亚马逊投资的公司,同时又是你们的大客户,比如你们投资了OpenAI,而OpenAI又向你们采购数百亿美元的芯片……请告诉我们,分析师们担心的“循环收入”问题,到底错在哪?
黄仁勋:10吉瓦的算力,大约价值4000亿美元。而这4000亿必须由他们真实的销售和收入来支撑,而这些收入正在呈指数级增长。
资金来源无非三种:资本金、股权融资和债务融资。他们能拿到多少资金,取决于市场对他们维持收入能力的信心。聪明的投资人和贷款人会综合考量,这就是他们的商业模式。
这和我们没关系。
当然,我们必须与他们保持紧密联系,确保能支持他们的持续扩张。但这属于收入逻辑,而不是投资逻辑。
我们的股权投资不与采购挂钩,它只是一次押注未来巨头的机会。正如我之前说过的,这些公司极有可能成为下一个万亿美元级的超大规模企业。
谁不想投资这样的公司呢?我唯一的遗憾是,当他们早期邀请我们投资时,我们因为资金有限,投得太少了。
真希望当时能把所有的钱都投进去。
格斯特纳:而现实是,如果你们的产品不够好,比如Vera Rubin芯片性能不佳,他们完全可以去买别的芯片。他们没有义务必须用英伟达的产品。而且正如你说的,这只是一次机会性的股权投资。
黄仁勋:没错。但我们确实做了几笔很棒的投资,比如xAI和CoreWeave。事后看,这些都非常明智。
英伟达的竞争壁垒
格斯特纳:2024年,你们从Hopper芯片开始切换到年度发布周期;2025年的Grace Blackwell带来了大规模升级,迫使数据中心进行全面改造;2026年下半年将是Vera Rubin,2027年是Ultra,2028年是Feynman。
这个年度节奏目前进展如何?主要目标是什么?英伟达内部的AI是否在其中发挥了作用?
黄仁勋:没有AI,英伟达不可能做到今天这样的速度、节奏和规模。我们所有的进展都依赖AI。
为什么要采用年度发布?因为token的生成速度正在以指数级增长,客户的使用量也在以指数级增长。像ChatGPT上线还不到两年,周活跃用户已经接近8亿。
格斯特纳:而且每个用户都在生成更多token,因为推理时花费的思考时间更长。
黄仁勋:对。这其实是两条指数曲线叠加的结果。如果性能不能以同样的速度提升,token生成的成本就会持续攀升。
摩尔定律已经停滞,晶体管的成本和能效改进几乎为零。除非有新的系统性创新,否则局面无解。
几分点的折扣根本弥补不了性能鸿沟。唯一的办法,就是每年实现数量级的性能跃迁。
晶体管的红利已经消失,我们必须在系统层面彻底重构,打破所有边界,重新设计芯片、软件栈和系统。
这就是所谓的极致协同设计。从未有人在如此高的层面上做过这样的整合。
格斯特纳:能简单解释一下“极致协同设计”吗?
黄仁勋:极致协同设计的核心,就是同时优化模型、算法、系统和芯片。
摩尔定律时代,你只要让CPU变快,一切就会自然提速。但当芯片性能停滞,你必须跳出框架创新。
这就是英伟达改变游戏规则的地方。
我们做了两件事:发明了CUDA和GPU,并提出了大规模协同设计的理念。
因此,我们进入了如此多的行业,构建了庞大的库并进行联合优化。从技术栈到数据中心层面,涵盖交换机、网络、软件、NIC、横向扩展、纵向扩展,全都整合。
结果就是,从Hopper到Blackwell实现了30倍性能提升,这是任何摩尔定律都无法做到的。这就是“极致”。
而能做到这一点,还因为我们有最丰富的软件和人才积累。
英伟达向世界贡献的开源软件比几乎任何公司都多,覆盖AI、图形学、数字生物学、自动驾驶等领域。这些庞大的软件资源,让我们真正能够执行深度而极致的协同设计。
格斯特纳:我听到你的一位竞争对手说,英伟达的年度发布周期不仅能持续降低Token生成成本,还让对手们根本追不上。因为你们为供应链提供了长达三年的路线图,使整个供应链更有黏性和信心去规划未来的产能。
黄仁勋:在提这个问题之前,可以先想一想:要支撑每年数千亿美元的AI基础设施建设,我们需要提前一年投入多少资源?
仅在晶圆和DRAM的采购上,就得花掉数百亿美元。这个规模几乎没有哪家公司能做到。
格斯特纳:那么你会说,你们的竞争壁垒比三年前更牢固了吗?
黄仁勋:竞争比以往任何时候都激烈,但进入这个赛道的门槛也比任何时候都高。
因为晶圆成本不断上涨,如果不进行大规模协同设计,就根本不可能实现数量级的性能跨越。
壁垒在于两点:协同设计的极致性和规模的极致性。当客户要部署1吉瓦的算力时,意味着需要40万到50万块GPU。
让几十万块GPU协同运转,本身就是奇迹。客户必须在我们身上下注。
你要反问自己:什么样的客户会在一款尚未经过市场验证的架构上,提前下500亿美元的订单?再问,作为供应商,你为什么要为一款刚刚完成设计的芯片,提前投产价值500亿美元的晶圆?
对英伟达来说,这能实现,因为我们的架构已经被反复验证过。客户的规模巨大,供应链也必须匹配这种规模。
没有对我们交付能力的绝对信任,任何一家公司都不会愿意提前为你生产如此庞大的零部件订单。
他们愿意一次性拉动数千亿美元的生产计划,这种信任和规模本身就是壁垒。
格斯特纳:站在第一性原理的角度,我会问:你们是在拓宽,还是在缩窄自己的护城河?
黄仁勋:我会说,我们的机遇,远比市场普遍认知的要大得多。
外界对我们有误解,仍然停留在“英伟达是一家芯片公司”的印象里。没错,我们造芯片,而且是世界最顶尖的芯片。
但英伟达的本质是一家AI基础设施公司,我们是客户的AI基础设施合作伙伴。与OpenAI的合作就是明证。
我们与客户合作方式非常灵活,不要求他们必须买全套,也不要求买整个机柜。他们可以只买一颗芯片,一个组件,或者只买我们的网络设备。
有些客户只买CPU,或者只买GPU,再配其他厂商的CPU或网络设备,我们完全接受。
无论怎样,我唯一的请求是:总得从我们这儿买点东西。(笑)
格斯特纳:你说过,AI不仅关乎更好的模型,更需要世界级的“建设者”。在我看来,这个国家最顶尖的建设者也许就是埃隆·马斯克。
黄仁勋:如果他第一个建成吉瓦级的超算,我一点都不会意外。
格斯特纳:请谈谈“建设者”的优势。
黄仁勋:这些AI超级计算机是极其复杂的系统。
技术复杂,融资复杂,土地、电力、机房和供电同样复杂。把所有这些整合并运行起来,这是人类历史上最复杂的系统工程之一。
埃隆的巨大优势在于,他能在一个人的大脑里整合并处理这些相互依赖的复杂系统,甚至包括融资。他本身就是一个巨大的GPT,一台超级计算机,是终极的GPU。
他有强烈的紧迫感和真正的建设意愿。当意愿与能力结合时,奇迹就会发生。他确实是独一无二的。
ASIC之争与未来格局
唐:说到这点,现在全球一个核心争论是GPU与ASIC(专用集成电路,即为某个特定用途而设计的“定制芯片”)的对决。考虑到谷歌TPU的成功,你现在怎么看市场格局的演变?
黄仁勋:谷歌的成功在于远见。他们在一切开始前就推出了TPU1。
就像创业一样,应该在市场爆发前就进入,而不是等到市场达到万亿美元规模时再加入。
风险投资里有个常见的谬论,只要能在大市场中拿到几个点的份额就能成功。这完全错误。
真正的逻辑是:你要在一个小市场里占据100%,并随着市场成长而成长。TPU当年就是这么做的,那时这个赛道只有我们和他们。
格斯特纳:但前提是,你得祈祷这个小市场最终会长大。实际上,你在创造一个新行业。
黄仁勋:没错。这也是今天所有想做ASIC的公司面临的挑战。
我曾在LSI Logic工作过,那家公司最早提出ASIC概念,但现在已经不复存在。
为什么?当市场还很小的时候,ASIC模式确实有效。你找个代工厂,帮你完成设计、封装、生产,他们抽取50%–60%的毛利。
但当市场足够大时,模式就会转向COT(客户自有工具,Customer-Owned Tooling)。苹果的智能手机就是典型案例:出货量巨大,他们绝不会把一半利润交给别人,而是必然采用COT。
所以,当TPU的业务规模大到一定程度时,最终也会走向COT,这是毫无疑问的。
当然,ASIC依然有它的用武之地,比如视频转码器或智能网卡。这类市场规模有限,不会无限膨胀。
你可以用ASIC去做推荐系统里的嵌入式处理器,这是可行的。但要拿它作为AI的核心计算引擎,就完全不现实了。
AI世界变化太快,你需要应对低延迟、高吞吐、推理、Token生成、视频生成等各种迥异的工作负载,这些需求不可能靠单一ASIC解决。
格斯特纳:像Trainium或一些欧洲的新创公司,他们的ASIC芯片更像是“大棋盘里的一枚子”。而你们已经搭建了一个极其复杂的系统、一座“工厂”,而且在不断开放,比如Grace CPU,就是把不同工作负载分配给最合适的硬件。
黄仁勋:没错。我们刚刚开源了Dynamo,一个面向分布式AI工作负载的编排系统,因为未来的AI工厂一定是分布式的。
格斯特纳:你们推出的NVLink Fusion(英伟达推出的新一代互联技术,它能把不同厂商的CPU、GPU或加速器高速连接起来,让它们像一个整体一样协同工作。相比传统的封闭互联,NVLink Fusion更开放,允许Intel、ARM等生态无缝接入,从而扩大了英伟达“AI工厂”的影响力),甚至向英特尔——你们刚刚投资的竞争对手,敞开了大门。这说明你们希望整个行业一起来建设这座“工厂”。
黄仁勋:这次合作把英特尔生态、英伟达AI生态和我们的加速计算平台打通,就像我们和ARM已经实现的那样。未来还会有更多合作伙伴。
这是一次双赢:我会成为他们的大客户,而他们也为我们打开更广阔的市场。
中国科技只慢了“纳秒”而已
格斯特纳:大多数人可能不知道,但我认为你对中国的了解不亚于美国任何一位领导人。
黄仁勋:我们去中国已经30年了。
格斯特纳:能否重申一下,你认为我们国家应该怎么做,才能在全球人工智能竞赛中处于最佳的获胜位置?
黄仁勋:我们和中国确实是竞争对手。但要认识到,中国希望自己的企业做大做强,这是再自然不过的事。他们理应如此,而且也应该得到尽可能多的支持,这是他们的权利。
别忘了,中国有着世界上一些最优秀的企业家,他们大多毕业于全球顶尖的STEM学校,是全世界最渴望成功、最有冲劲的一群人。
在他们的职业文化中,“996”工作制就是一个典型例子——每周工作六天,从早上九点到晚上九点。这种方式效率极高,虽然外界争议不少,但它已经成为他们的文化特征之一。
整体上,这是一个充满活力、富有创业精神的高科技产业环境,现代化程度很高。
我听到过一些声音,比如“中国永远造不出AI芯片”。这完全是无稽之谈。还有人说“中国不擅长制造”。如果非要说他们最擅长什么,那就是制造。
有人说他们比我们落后很多年——一两年?还是三四年?事实上,他们只比我们慢了“纳秒”而已,就是这么微小的差距。所以,我们别无选择,必须直面竞争。
那么问题来了:什么才符合中国的最佳利益?
答案很清楚:维持一个充满活力的产业。中国领导层也公开表示过,而且理应如此,他们希望中国成为一个开放的市场,吸引外国投资,让国际公司进入并在市场上竞争。
我相信,也希望我们能够回到过去的状态。
回到你刚才提到的未来,我对此依然充满信心。因为中国领导人就是这么说的,我对此深信不疑。我相信这是符合他们利益的做法:既让外国企业在中国投资、竞争,同时又保证本土企业能在充满活力的竞争中成长。
另外,他们也明确希望走向全球,参与国际竞争。这是一个相当明智的愿景。
至于我们美国,任务就是赋能我们的技术产业。我很荣幸能身处一个被誉为“国家宝藏”的行业。我们必须意识到,这确实是我们的国之瑰宝,是我们最顶尖、独一无二的产业。
所以,我们为什么不让这个产业放手去拼,在竞争中脱颖而出?为什么不让它走向世界,把技术传播到各个角落,建立一个以美国技术为基础的全球体系?
这样,我们才能最大限度地提升经济成就和地缘政治影响力,让这个在关键时刻至关重要的产业蓬勃发展。
虽然有很多讨论正在进行,但我始终会回到一个基本事实。我坚信,让英伟达能够参与并服务中国市场的竞争,这最符合中国的利益。
同时,这也最符合美国的利益。这两个事实完全可以同时成立,而且我相信它们都是真实的。
我一直相信智慧和真理终将胜出,这也是我一路走来的信念。
面对一辆正以指数级加速前进的火车,赶紧跳上去
格斯特纳:今天我们已经多次提到“指数增长”。未来学家雷·库兹韦尔(Ray Kurzweil)曾说过:在21世纪,我们体验到的进步将不止100年,而是相当于两万年的进步。展望下未来?
黄仁勋:我认为在未来五年内,会有一件特别酷的事情发生:人工智能将与机电一体化、机器人技术真正融合。到那时,我们每个人身边都会有能自由活动的AI。
大家其实都能想象,我们终将迎来属于自己的“R2-D2”。它会陪伴我们成长,记住我们的一切,成为我们的向导和伙伴。
再想象一下:未来在云端部署80亿个GPU,为全球80亿人提供服务,每个人都有一个量身定制的AI模型。这完全可能实现,也非常令人振奋。人工智能不仅存在于云端,还会无处不在:在你的汽车里,在你的机器人里,在各种设备中。
与此同时,我们还将逐步理解生命科学的复杂性。对生物系统的理解和预测,甚至可能让我们为每个人建立一个数字孪生。
就像我们在亚马逊有一个用于购物的“数字分身”,在医疗健康领域,我们也完全可以拥有一个。
这个系统能预测衰老过程、潜在疾病,甚至预警可能即将发生的重大健康事件——比如下周,甚至明天下午。这不是幻想,而是迟早会实现的。
很多CEO常常问我:面对这种快速演化的未来,我们该怎么办?答案其实很简单:在一列正以指数级加速前进的火车面前,你唯一要做的,就是跳上去。
一旦上车,问题会在途中得到解决。试图预测这列火车最终会驶向何方,然后打算在某个路口拦截它,这是徒劳的。
最聪明的做法,就是在它还没快到无法企及之前,赶紧上车,和它一起加速前进。