你喜欢我的方框T恤。
我喜欢你的方框T恤。
我两周前第一次去,当时我完成了一个基准测试,充满了怀旧之情。真是难以置信。
我不敢相信你以前来过。我知道詹森是个丹尼斯人,但我感觉如果我们要求的话,他会和我们在巴克斯见面。
或者至少,我们应该想办法在上面做一些环境记忆。
钱包书。完全匹配,对吧?
好的。
让我们做吧,轻松点。你等着。你等着,你。谁。轻松点,我下来,讲故事。在路上。
欢迎来到《收购》播客的第十三季第三集,该播客探讨了伟大的科技公司及其背后的故事和游戏规则。我是吉尔伯特、大卫和罗斯。我们今天是你的主持人。我们讲述一个我们以为已经结束的故事。视频,但过去十八个月对听众来说太疯狂了,它值得单独一集。
所以今天是我们关于AI革命的故事的第三部分,讲述我们如何走到这一步以及为什么现在正在发生,从亚当和硅谷的层面开始。所以,我做了一个转录搜索,看看我们在2022年4月22日播客中是否说过这个词。我们从未说过“生成式”这个词。事情变化的速度有多快。
完全疯狂。世界范围内所有这些AI事物的时机都令人难以置信地巧合,非常有利。所以,回想一下十八个月前,在2022年,我们都见证了金融市场从上市股票到初创企业再到房地产,都在快速上涨的利率下跌。加密货币泡沫破裂,银行倒闭,似乎整个科技经济,以及其中很多东西,都将进入漫长的寒冬。
包括在视频中。
包括在视频中,谁为了他们认为的过度订购而大量清仓。
哇,事情变化真快。
但是到了2022年秋天,对吧,当一切都看起来最糟糕的时候,一种突破性的技术终于变得有用起来。经过多年的实验室研究,大型语言模型(LLM)建立在创新的转换器机器学习机制之上,首先以OpenAI的ChatGPT出现,成为历史上第一个达到1亿活跃用户的应用程序,然后很快被微软、谷歌以及其他所有公司迅速跟进。2022年11月,AI无疑迎来了它的网景时刻,时间会证明,它甚至可能迎来了它的iPhone时刻。
詹森绝对相信这一点。
今天,我们将探讨这项突破是如何产生的,这项突破背后的个人,当然,为什么所有这一切都发生在英伟达的硬件和软件之上。如果您想确保每次有新剧集时都能收到通知,请访问acquired.fm/email注册。您还将获得两项我们不会放在其他地方的内容。
一、关于下一集将是什么的线索;二、关于我们发布后学到的东西的后续内容。您可以在acquired.fm/slack上与我们讨论本集。如果您想了解更多关于大卫和我的内容,请查看我们的访谈节目ACQ2。
其次,我们接下来的几集将围绕AI展开,由C、E、S引领我们今天谈论的世界,以及与Dog the Miro的精彩访谈,我们想谈论的远不止是他们糟糕的演出。但现在我们只有11个小时,或者我们和Dog在车库里待了多久。所以,有很多关于汽车行业的话题,以及了解Dog在商业旅程中的学习。
我们为ACQ2节省了时间。所以,请查看一下。最后一条公告,你们很多人一直在好奇,那些帽子什么时候会重新上市?它们现在限时上市。您可以在acquired.fm/store上购买绣有ACQ标志的帽子。在它们永远消失在迪士尼乐园之前,请下订单。
太好了。我终于可以给珍妮买一件自己的了。所以她停止偷东西。
是的。嗯,为了让节目顺利进行,这并非投资建议。我和史蒂文可能在讨论的公司中持有投资。本节目仅供信息和娱乐之用。大卫。
历史事实。哦,天哪,一方面,我们只有18个月的时间来谈论。
除了我知道你不会开始。
十八个月前。另一方面,我们有几十年几十年积累的基础研究需要涵盖。所以,当我开始我的研究时,我去了最自然的地方,那就是我们2022年4月的旧剧集,当我听到第二集结束时,我正在听它们。
伙计们,我忘了这件事了。我想詹森可能希望我们都忘了这件事,在视频中,在第21页的幻灯片上。他们列出了他们的总市场,并表示他们拥有一个万亿美元的市场。
他们计算这个市场的方式是,他们将服务于提供价值100万亿美元的行业的客户。他们将捕捉其中1%。幻灯片上有一些内容相当具有推测性,例如自动驾驶汽车和元宇宙。我认为机器人是其中重要的一部分。
论点基本上是这样的:好吧,汽车加工厂加所有这些东西加起来是100万亿美元,我们可以从中拿走1%,因为他们的计算机肯定能占到其中的1%,我并不认为这是错的。但这是一种非常直接的分析方式。
市场通常不是思考创业或是否能获得这个大市场1%的正确方法。
但这是我能想到的衡量市场规模的最佳方式。
所以,比利,你在收购第三部分的结尾提到了这一点。我想,为了证明视频交易的当前价值,你实际上必须相信所有这些事情都会发生,而且很快就会发生。自动驾驶汽车、机器人,所有这些。
是的。重要的是,我觉得他们要达到当时估值,就必须为物理世界中的所有这些硬件提供动力。
是的,我有点相信我说过这些话,因为我既有目的性又缺乏信息,但我有点抓住稻草,试图为你扮演魔鬼代言人。我们在那整个剧集中大部分时间都在谈论机器学习,由英伟达驱动,最终拥有这个非常有价值的用例,即为社交媒体供稿推荐提供动力,Facebook和谷歌凭借这些供稿推荐在互联网上变得比任何人都大,英伟达为所有这些提供了动力。
所以我只是想理想地提出,也许,但如果你不需要相信任何这些,你仍然认为英伟达可能值得万亿美元?如果互联网、软件和数字世界继续增长,英伟达可以提供一个新的基础层,这可能吗?我想我们都觉得,我不知道。
让我们把这个剧集放掉,是的,当然。我们就像。
我们的正确判断。但疯狂的是,当然,至少在这个时间框架内,詹森万亿美元幻灯片上的大多数事情都没有实现。但那个疯狂的问题可能实现了。从英伟达的营收和盈利角度来看,绝对实现了。这太疯狂了。
对吧?我们如何走到这一步?
让我们倒退,讲故事。所以,在2012年,人工智能或更谦逊地说,机器学习的重大突破时刻到来。那是AlexNet。我们在上一集谈论了很多这个,那是多伦多大学的三位研究人员,他们将AlexNet算法提交给了ImageNet计算机科学竞赛。
大卫,你告诉我,到那时,机械土耳其人最大规模的应用是标记ImageNet数据集。
是的,我的意思是,直到这场比赛和AlexNet出现之前,还没有机器学习算法能够准确地识别图像。所以,成千上万的机械土耳其人以每小时两美元的价格获得了报酬,用于标记这些图像。
是的。我记得我们在上一集提到,基本上发生的事情是AlexNet团队的表现远超以往任何人的表现。完全改变了游戏规则。我认为错误率从以前标记图像错误的25%突然下降到仅标记错误的15%。这就像是一次巨大的飞跃,而不是以往微小的进步。
你说的完全正确。他们做这件事的方式彻底改变了互联网、谷歌、Facebook,当然也改变了英伟达的命运,他们实际上使用了旧算法,计算机科学和人工智能的一个分支,称为神经网络,特别是卷积神经网络,自20世纪60年代就存在了,但它们在计算上非常密集。
所以,没有人认为在短期内或在我们有生之年,实际训练和使用这些东西是可行的。这些来自多伦多的家伙所做的是,他们可能去了当地的百思买或加拿大同等商店,购买了两张GTX 580显卡,当时是顶级显卡。他们用CUDA(英伟达的软件开发平台)编写了他们的卷积神经网络算法。他们用大约1000美元的消费级硬件训练了这个东西。
基本上,多年来其他人一直在尝试的算法,只是没有像图形卡那样大规模并行化。所以,如果你能充分利用图形卡的计算能力,那么你也许能够运行一些独特的、新颖的算法,在比在超级计算机实验室中少得多的时间和成本内完成。
是的,每个人。在我尝试在CPU上运行这些东西之前,CPU用户很棒。但它们一次只能执行一条指令。另一方面,GPU可以同时执行数百或数千条指令。所以,英伟达的图形卡加速了计算。詹森和公司喜欢称之为,你可以把它想象成一个巨大的杠杆,就像摩尔定律中发生的任何进步一样。如果一个算法可以并行运行,那么芯片上的晶体管数量越多,你就可以利用摩尔定律的数百倍、数千倍,甚至数万倍,比你否则能够做到的速度快得多。
这很有趣,因为有一个名为图形的第一个市场,显然是并行的,屏幕上的每个像素都不依赖于相邻像素。它实际上可以独立计算并输出到屏幕。所以你有。然而,现在屏幕上有数万甚至数十万个像素,它们实际上都可以并行完成。英伟达当然意识到,AI、加密货币以及所有这些基于线性代数和矩阵数学的东西,加速了计算机,将这些东西从CPU转移到GPU和其他并行处理器,这代表了可以利用相同技术的其他应用的全新领域,他们为图形开发了这项技术。
是的,这确实很有用。这个AlexNet时刻,以及来自多伦多的三位研究人员,开启了詹森所说的AI的重大突破时刻。他绝对是对的。
所以,大卫,我们上次完整地讲述这个故事时,我们谈到了来自多伦多的这个团队。我们没有跟进这个三人团队之后做了什么。
是的。基本上,我们所说的结果是,这些家伙所做的事情的自然结果是,哦,你实际上可以用它来显示社交媒体供稿中的下一条帖子,就像Instagram供稿或YouTube供稿之类的东西。这释放了数十亿美元的价值。
这些家伙以及该领域的所有其他人,都被谷歌和Facebook挖走了。嗯,这是真的。然后,作为结果,谷歌和Facebook开始大量购买英伟达的GPU。但事实证明,这个故事还有另一个我们完全跳过的章节。它始于你问他的问题,这些人是谁?
是的。
所以,组成AlexNet团队的三个人是,当然,Alex Krizhevsky,他是。
他的导师,传奇的计算机科学教授杰夫·辛顿的学生。杰夫·辛顿,我有一个关于他的有趣小知识。你知道他的曾祖父母是谁吗?
不知道。我不知道。
他是乔治和玛丽·布尔的后裔,你知道,像比利一样,代数和逻辑。
这个人天生就是计算机科学研究员。哦,天哪,对吧?
计算和计算机科学的基础。
我还不知道有叫布尔的,但这就是来源。
是的,我们知道来自乔治和玛丽·布尔的X或NOR运算符。所以他是导师。然后团队里还有第三个人。
Alex是这个实验室的另一位博士生,当Ali说“跳过”时,如果你知道我们接下来要讲什么,你可能现在已经在座位上跳起来了。Ali是OpenAI的联合创始人兼首席科学家。
是的。
所以,在Alex、杰夫和Ali之后,他们做了最自然的事情,他们创办了一家公司。我不知道他们在公司里做了什么,但。
创办一家公司是有意义的。无论他们做了什么,他们都会。
很快就被谷歌收购了,在六个月内。所以他们被谷歌挖走了。他们加入了一大批其他学术界和研究人员,谷歌一直在该领域垄断。
特别是格雷格·科拉多、杰夫·迪恩和安德烈·卡尔帕蒂,斯坦福大学教授。他们三人组成了谷歌大脑团队,以加速AlexNet释放的AI工作,当然,将其转化为谷歌的大量利润。
事实证明,通过Facebook、谷歌或YouTube在互联网上精准定向广告服务,是一个非常有利可图的业务,并且会消耗大量的英伟达GPU。
是的。所以,大约一年后,谷歌也收购了著名的深度思维,然后差不多同一时间,脸书收购了计算机科学教授杨乐康,他也是该领域的传奇人物,他们两人基本上建立了一个应用于领先人工智能研究人员的团队。现在,在这个阶段,没有人会误解这些公司和这些人正在做的事情是为了真正的类人智能,或者任何接近它的东西。
这是非常擅长狭窄任务的人工智能,就像我们之前谈到的社交媒体推送推荐。所以谷歌大脑团队和杰夫、亚历克斯以及他们正在进行的一个大型项目是重做 YouTube 算法。而这时,YouTube 从谷歌收购的亏损项目变成了今天这个令人疯狂的巨头。
我的意思是,在 2013 年、2014 年,我们制作了 YouTube 视频的分析,那时 YouTube 视频的大多数观看量都在其他网页上。这是他们将人工智能融入社交媒体网站,开始推送、开始自动播放的时候。所有这些东西都源于人工智能研究,谷歌收购深度思维之后,发生的一些其他著名事件。
深度思维构建了一些算法来节省冷却成本。当然,脸书可能在这一代中笑到了最后,因为他们正在使用所有这些工作。而杨乐康也在做他的事情,并在那里雇佣了许多研究人员。
这是在他们收购 Instagram 几年后测试的。天哪,我们需要回去重做那期节目,因为 Instagram 本身就是一个很棒的收购对象。但是,人工智能驱动的推送推荐功能让它成为了脸书价值数百亿甚至数千亿美元的资产。
我认为你并没有夸大。我认为 Instagram 对 Meta 的价值确实如此。顺便说一句,我在 Instagram 广告上买过很多东西,所以他们的定向广告效果非常出色。
有位来自谷歌 X 的前高管,他在《纽约时报》上发表了一段精彩的评论,他说,在这一时期,谷歌大脑团队的收益,我认为甚至超过了谷歌 X 的所有支出。
谷歌 X 和谷歌大脑,有盈利吗?
很多谷歌 X 和谷歌大脑项目,是的。我的意思是,是的,就说到这里。
这将我们带到 2015 年,硅谷的一些人开始意识到,谷歌、脸书的人工智能应用实际上是一个非常、非常大的问题。大多数人对此一无所知。这是这两位人士的远见卓识。而且,这不仅仅是一个对。
像其他大型科技公司一样,因为你可以争辩说,这是一个非常严重、可怕的问题。所有其他拥有大量消费者触点的公司在当时都对此有不好的预感。但担忧的理由要大得多。
我认为这里有三个层面的担忧。首先,当然还有其他科技公司。然后是初创企业的问题。这对初创企业来说非常糟糕。当人工智能是这一代技术的主要价值驱动因素时,你将如何与谷歌和脸书竞争?
我认为还有另一个视角来看 Snap 和 Musical.ly 的情况,以及他们不得不卖身给抖音,并成为中国公司。也许这是商业决策,也许是执行力,或者其他什么原因导致这些平台未能达到独立规模。Snap 现在是上市公司。但就像它不是脸书一样,也许是因为他们没有像脸书和谷歌那样获得相同的人工智能研究人员。
嗯,这个问题感觉有点过于深入结论了,但仍然有点引人入胜。
考虑到这一点,这绝对是一个问题。第三层问题是,所有这些人都被困在谷歌和脸书中,这对世界来说真的很糟糕。
现在可能是提到 OpenAI 成立的合适时机。它的成立是为了在大型科技公司之前找到通用人工智能。深度思维也是同样的想法。
他当时正在走一条曲折的道路,因为当时没有人知道通往通用人工智能的最佳途径是什么。但 OpenAI 的核心思想是,无论谁先找到通用人工智能,都会变得非常强大,非常迅速。他们将拥有巨大的控制权。而这最好是公开的。
所以这两位人士对此非常担忧。他们于 2015 年在旧金山山景城的一个非常重要的晚宴上会面。当然,如果他们是在像丹尼尔·阿克曼的书和网站那样的地方,那会更好,但这实际上。
只是展示了 OpenAI 的起源,以及它与世界各地的科技公司截然不同的发展方式。你知道,这是利用现有资金和资源,说,不,我们需要创造一些东西。
所以,当然,这两位幕后人物是埃隆·马斯克和萨姆·阿尔特曼。当时,萨姆·阿尔特曼是喜剧中心的主席。他们一起参加了这次晚宴,并邀请了谷歌和脸书的大部分顶级人工智能研究人员。
他们问,你们需要什么才能离开并加入这个应用?几乎所有人的回答都是,什么都不需要。我们很开心,我们有。
我们有更好的待遇,我们建立了很棒的团队。我们有丰厚的薪水。
对吧?我们不仅能拿到巨额薪水,还能直接与该领域最优秀的人工智能研究人员合作。如果我们还在学术机构,比如华盛顿大学(一个顶尖的计算机科学机构)或多伦多大学(这些人的母校),你仍然在一个碎片化的市场。
如果你在谷歌或脸书,你与所有人在一起。所以,基本上所有人的回答都是不。除了一个人对埃隆和萨姆的提议感兴趣。引用当时《连线》杂志凯德·马斯发表的一篇精彩文章(我们会在来源中链接),问题是,许多最能解决所有这些人工智能问题的专家已经在谷歌和脸书工作了。而且,晚宴上没有人确信这些思想家能够被说服加入一个新的初创企业,即使马斯克和阿尔特曼在背后支持。
但至少有一位关键人物对跳槽的想法持开放态度。然后,我们引用了这位关键人物的话。我觉得这其中有风险,但我同时也觉得这将是一件非常有趣的事情。
这位关键人物是伊利亚·苏茨凯维奇。是的。晚宴之后,伊利亚离开了谷歌,并签署了成为新成立的独立人工智能非营利研究实验室的联合创始人兼首席科学家,该实验室由埃隆和萨姆支持。OpenAI。
好的。听众朋友们,现在是向大家介绍长期以来一直是节目嘉宾的 ServiceNow 的好时机。
是的,众所周知,ServiceNow 是用于业务转型的 AI 平台。他们有一些新消息要分享。ServiceNow 推出了 AI 代理。因此,只有 ServiceNow 平台才能让 AI 代理在您的业务的每个角落工作。
是的。正如您从我们今年的节目中了解到的那样,ServiceNow 在拥抱最新的 AI 发展并将其融入客户产品方面非常出色。AI 代理是这一阶段的下一个发展。
那么,AI 代理是什么?AI 代理可以思考、学习、解决问题并做出自主决策。它们代表您的团队工作,提高他们的生产力和潜力。虽然您获得了令人难以置信的生产力提升,但您仍然可以完全。
控制 ServiceNow AI 代理主动解决来自 IT、人力资源、客户服务软件开发等各个方面的挑战。这些代理相互协作,相互学习,并不断改进,处理您的业务中的繁琐工作,以便您的团队能够专注于真正重要的事情。
ServiceNow AI 代理是将人工智能部署到企业每个角落的方式。它们提高员工的生产力,创造出色的客户体验,让每个人都能更好地工作。
是的,所以,通过点击节目说明中的链接或访问 servicenow.com/ai-agents,了解如何让 AI 代理为您的员工服务。好的,所以,大卫,OpenAI 成立了。2015 年。八年后,我们有了 ChatGPT,从那里开始,我们听到了很多。
对吧?事实证明,并非如此。所以,正如我们之前讨论的那样,当时的人工智能非常擅长狭窄的应用场景,与今天的 GPT 完全不同。
他们的能力非常有限。其中一个主要原因是,您实际上可以用来训练这些模型的数据量非常有限。所以,以亚历克斯的例子为例,您正在谈论 1400 万张图像。在互联网的总体规模中,1400 万张图像只是沧海一粟。
这既是硬件限制,也是软件限制。在软件方面,我们实际上并没有算法来大胆地用整个互联网训练一个单一的基准模型。那不是一件容易的事。
但这是一个疯狂的想法。
对吧?人们对语言模型的概念感到兴奋,但我们实际上不知道如何通过算法来实现它。所以,在 2015 年,当时在 OpenAI 工作的安德烈·卡帕西(后来领导特斯拉的人工智能,现在实际上又回到了 OpenAI),发表了一篇题为“神经网络的非理性有效性”的开创性博文。大卫,我在这期节目中不会深入探讨,但请注意,循环神经网络与 2012 年的卷积神经网络略有不同。
技术水平已经发展了。
是的。差不多同一时间,一个视频出现在 YouTube 上(稍后在 2016 年),实际上是在 Invidious 频道上。视频中出现了两个人。
一个是杨·埃利奥特·吉弗,另一个是安德烈·卡帕西。以下是安德烈·卡帕西在该 YouTube 视频中的评论。我感兴趣的一个算法是语言模型,即您可以获取大量数据并将其输入网络,然后网络就能找出句子中单词如何相互跟随的模式。
例如,您可以获取大量关于人们在互联网上如何交谈的数据。您可以训练一个聊天机器人,但您可以以一种让计算机学习语言是如何运作的以及人们是如何互动的。最终,我们将使用它与计算机交谈,就像我们彼此交谈一样。
这是 2015 年。
这是在 Transformer 出现两年之前。卡帕西在 OpenAI 工作。他提出了聊天机器人的想法,甚至在 Transformer 方法出现之前就已经讨论过了。他有一种想法,而且这里很重要,即它能找出句子中单词如何相互跟随的模式。所以,语言的结构以及解释知识的方式实际上包含在训练数据本身中,而不是需要标记。
这太酷了。所以,在今年的 Spring GTC 大会上,詹森与伊利亚进行了炉边谈话,你应该去看整个视频。但其中有一个问题。
詹森提出了一些似是而非的观点,比如,有人说 GPT-3、GPT-4 和 ChatGPT 是所有事情的答案?所有这些大型语言模型,它们只是在句子中预测下一个单词的公共政治盟友。它们实际上并没有知识。
伊利亚对此做出了精彩的回应。他说,让我们考虑一下侦探小说。是的,在小说的结尾,侦探把每个人聚集在一个房间里,说,我现在要告诉你们所有犯罪者的名字,这个人叫布莱克。大型语言模型越准确地预测下一个单词(即犯罪者的名字),如果事实如此,那么它对小说的理解,以及对所有人类知识和智能的理解就越深刻,因为你需要你所有的经验和作为人类的知识才能猜出罪犯是谁。而当今存在的 GPT-3、GPT-4 等大型语言模型,它们可以猜出。
罪犯是谁。是的,所以,理解与预测之间的区别。嗯,这是一个热门话题。所以,大卫,现在是时候快进到 2017 年,以及 Transformer。论文绝对。
然后谈论 Transformer。
好的?所以,谷歌在 2017 年发表了一篇名为“注意力即一切所需”的论文。
来自谷歌大脑团队,对吧?伊利亚离开那里才两年,去创办了 OpenAI。
在自然语言处理方面,为了说明这一点,长期以来一直使用机器学习来做诸如自动更正或外语翻译之类的事情。但在 2017 年,谷歌发表了这篇论文,发现了会改变这些领域一切的新模型,并开启了另一个领域。
所以,情况是这样的:您正在将一个句子从英语翻译成法语。您可以想象,一种方法是按顺序逐字翻译。但是,对于任何去过国外并尝试过的人来说,您知道单词在不同语言中的排列方式有时会不同。
所以,这是一种糟糕的方法。西班牙语中的“美国”是“Estados Unidos”。所以,第一个词就失败了。
所以,进入注意力这个概念,这是这篇研究论文的关键部分。这种注意力是 Transformer 论文中非常神奇的部分。它字面上的意思就是它听起来的样子。它让模型能够在不同时间关注输入文本的不同部分。在考虑下一个翻译单词时,您可以查看大量上下文。所以,对于您即将输出的法语单词,您可以查看整个输入单词集,以确定在做出下一个决策时应该重点关注哪些单词。
这就是为什么人工智能机器学习在以前只能应用于狭窄领域的原因。如果您输入一个促销信息,并将其视为人类,它就像一个注意力非常短的人。
是的。现在,神奇的部分来了。它确实会查看整个输入文本以考虑下一个单词应该是什么。
这并不意味着完全抛弃位置的概念。它使用一种称为位置编码的技术,因此它不会完全忘记单词的位置。所以它有一个很酷的功能,它会等待与你特定单词相关的关键部分,并且它仍然理解位置。所以记住,我之前说过注意力机制,它每次选择时都会查看整个输入。输出是什么?
这听起来在计算上非常困难。
是的。在计算机科学术语中,这意味着注意力机制的时间复杂度是 O(n^2)。
哦,这让我回到了大学的计算机科学课。
只是简单地浏览一下,它更深入了。所以很明显,传统上你会说这非常非常低效。实际上,这意味着你的上下文窗口(又称令牌限制,又称提示长度)越大,它在计算上的开销就以四次方的速度增加。
因此,将你的输入加倍意味着计算机的成本和输出成本也加倍,或者将你的输入增加三倍意味着成本增加九倍。它变得非常快。是的。
它变得非常非常快。但是,GPU拯救了我们。对我们来说,令人惊讶的是,这些转换器比较可以并行进行。
因此,即使有很多需要做的事情,如果你有大型GPU芯片,拥有大量的计算资源,当然你可以同时完成所有这些操作。而以前实现这一目标的技术,例如循环神经网络或LSTM,
长短期记忆网络(一种循环神经网络),需要在选择下一个词之前知道每个步骤的输出,然后再开始下一个步骤。换句话说,它们是顺序的,因为它们依赖于前一个词。现在,使用转换器,即使你输入的词序列有上千个词,只要有足够的计算资源(大型GPU),它就能像只有十个词一样快地完成,在可衡量的时间内完成。所以这里的重大创新是,你现在可以并行训练序列空间模型。以前根本无法训练如此规模的模型,更不用说...
经济有效地训练。是的,这对于所有听众来说都非常熟悉我们今天所处的世界。
是的,我有点用变魔术的方式,将翻译变成了使用上下文、窗口和令牌长度等词语。接下来会发生什么?是的。
所以这篇关于转换器的论文发表在2017年。其意义重大。但出于某种原因,在一段时间内,世界其他地方并没有完全意识到这一点。
所以谷歌显然知道这一点的重要性。在一年左右的时间里,谷歌的AI工作,即使OpenAI已经成为一个事物,现在也在该领域超越了其他所有人。所以这时谷歌在Gmail中推出了智能撰写功能。他们还做了一些让AI帮你联系当地商户的事情。还记得那个演示吗?
知道他们做了。那东西最终发布了吗?
我不知道。也许我做了。宝贝。谷歌是不是已经具备了这些能力?真正开始投资这一领域是在他们真正开始使用这些产品的时候。不。但是,真正体现出来的地方只是回到广告、搜索和推荐YouTube视频等方面,他们只是在碾压这些领域。在此期间,尽管OpenAI和其他公司还没有采用转换器,但他们仍然停留在过去,仍在进行一些研究,例如计算机视觉项目。所以,就像他们建造了一艘船来玩DOTA一样,训练代理来玩视频游戏。
非常令人印象深刻的东西,比如他们通过仅仅消费计算机视觉(消费屏幕截图并从中推断)就击败了世界上最好的DOTA玩家。这是一个非常困难的问题,因为DOTA2不是你可以一次看到整个棋盘的游戏。因此,它必须根据单个玩家的输入进行大量智能推断,以构建游戏其余部分。所以这是一个非常前沿的研究...
...在过去几年里。它就像一匹更快的马。
也许吧。我的意思是,他们还在做一些事情,例如一个模拟世界来训练自动驾驶汽车。你可能不再听到关于它的任何消息了,但他们确实构建了整个系统。
我想我当时使用的是Grand Theft Auto作为环境,然后我使用GTA世界进行计算机视觉训练。这很疯狂,但我有点散兵游勇。是的,我有点散兵游勇。
我想我的意思是,它仍然局限于狭窄的应用场景。他们在这个时间点上还没有做任何接近GPT的事情。与此同时,谷歌已经继续前进。
现在,我想就OpenAI和其他领域的人们在当时做的事情说一点,他们并没有闭门造车,不去做转换器能够让你做的事情,这在下一秒就会谈到,在计算能力方面需要大量的GPU,在Nvidia。转换器让这一切成为可能。但是,要处理你正在谈论的模型规模,你将花费大量的资金,这对于非营利组织和任何其他公司来说都是不可持续的,特别是谷歌。
对吧?有趣的是,大卫。你让这个话题变得更贵,模型更大。我们之前做的只是翻译一个句子到另一个句子。
转换器的应用并不一定需要你消费整个互联网并创建一个基础模型。但是让我们谈谈这个。转换器非常适合不同的任务,正如我们现在所知的那样。
因此,对于给定的输入句子,他们不仅可以翻译成目标语言,还可以用作下一个词预测器,以确定序列中应该出现哪些词。你甚至可以利用一些核心文本进行预训练,以帮助模型理解如何预测下一个词。所以,稍微回顾一下,让我们回到转换器出现之前的循环神经网络。
他们除了顺序处理而不是并行处理之外,还存在上下文窗口非常短的问题。所以你可以做下一个词预测。但这并没有那么有用,因为我不知道你几句话之前说了什么。
当你到达段落末尾时,它会忘记开头发生了什么。它无法同时处理所有这些信息。所以,这个下一个词预测的想法,通过转换器进行预训练,可以真正开始做一些非常强大的事情,即消费大量文本,然后根据大量的上下文完成下一个词。
是的,我们开始想到大型语言模型的概念,我们现在要稍微快进一下,以便回到故事中。在GPT-1(OpenAI的第一个模型),生成式预训练转换器模型GPT中,它使用了无监督预训练,这基本上意味着它在消费语言的循环时,使用了未标记的数据。模型仅仅通过阅读来推断语言的结构和含义,这在机器学习中是一个非常新的概念。
传统的观点是,你需要非常结构化的数据来训练你的小型模型,因为否则你将无法了解数据实际的含义。这是一个新事物。你可以从数据本身学习数据的含义。
这就像一个孩子如何理解世界,父母偶尔会说“不,不,不,你错了。那实际上是红色”,但大多数时候他们只是通过观察来进行自我学习。
正如一个两岁孩子的父母可以证实的。
然后,在无监督预训练步骤之后,会发生第二件事,即有监督微调。无监督预训练使用大量文本来学习一般语言的结构。然后,它在标记的数据集上进行微调,以完成你真正想要模型完成的特定任务。
所以,为了让大家了解为什么我们说在非常非常大量的数据上进行训练的想法非常昂贵,GPT-1大约有1.2亿个参数进行训练。GPT-2有15亿个参数,GPT-3有1750亿个参数,GPT-4(OpenAI)已经宣布...
...它大约有1.7万亿个参数进行训练。这与AlexNet相去甚远。这里...
...规模增长就像股票市场一样。基本上,有一个有趣的发现,参数越多,你预测下一个词的准确性就越高。这些模型基本上是糟糕的。
参数少于100亿,甚至少于1000亿,它们要么只是胡言乱语,要么...这很有趣。当你查看其中一些模型,比如10亿参数的模型时,
你会想,这永远不会变成任何有用的东西。但是,仅仅通过添加更多训练数据和更多参数,它就会变得更好。转换器基础模型由于并行性而具有非常好的可扩展性。因此,当你向它们投入大量数据时...
...你也可以投入大量GPU来处理这些数据。
输出出乎意料地神奇地变得更好。我的意思是,我知道我一直在说这个,但它就像重量。我们没有改变任何结构。
我们只是提供更多数据,让这些模型运行更长时间,让模型参数更大。而且,研究人员并没有预料到这些模型能够像他们那样理解世界。但随着他们探索越来越大的模型,这种情况就发生了。
所以,就OpenAI而言,他们知道所有这些。但是,为了训练这些模型,你需要花费大量资金来购买GPU或在云端租用GPU。你知道,即使是谷歌,在这个时候,他们开始构建自己的芯片(TPU),因为他们仍然从Nvidia购买大量硬件,但他们也开始自己开发硬件。
是的。重要的是,他们在这个时候已经准备好向公众发布TensorFlow,所以他们有一个框架,人们可以在其上开发。他们说,如果人们使用我们的软件进行开发,那么也许我应该在我们的硬件上运行,我们的硬件经过优化,可以与软件一起工作。
所以他们实际上有一个非常合理的理由来解释为什么他们的硬件和软件框架。当人们说“哇,谷歌为什么要免费提供所有这些东西?”时,这是一个令人惊讶的举动。但这在几年之前,是一个非常有目的的举动,旨在让更多人使用谷歌的架构和云计算。
都在谷歌云中。是的。因此,这看起来像是OpenAI和世界各地的AI资源可能比以往任何时候都更依赖谷歌。所以,在2018年,埃隆·马斯克对所有这些事情感到非常沮丧。基本上,他离开了OpenAI。
围绕这件事有很多戏剧性,我们现在不会讨论。他可能或可能没有告诉团队,他要么接管并管理事情,要么离开。谁知道呢?
但无论发生什么,这最终成为OpenAI未来发展的主要催化剂。在刀尖上,这可能也是一个非常糟糕的决定。但再次抱歉,今天就到这里。
所以,这篇关于OpenAI的文章中有一个很好的解释,我们会在我们的资料中链接到它。作者说,到2018年,OpenAI的一些人更加意识到成为一家尖端AI公司的成本正在上升。谷歌大脑转换器已经开辟了一个新的领域,AI可以无限改进,但这意味着需要投入大量数据进行训练,这是一个昂贵的努力。
OpenAI在2020年11月做出了一个重大决定,转向这些转换器模型,并宣布正在创建一家营利实体,以便筹集足够的资金来支付追求最雄心勃勃的AI模型所需的计算能力。我们希望增加筹集资金的能力,同时保持我们的使命。我们没有发现任何现有的法律结构能够达到正确的平衡,公司当时写道。OpenAI表示,他们正在为投资者锁定利润,并取消任何与原始非营利组织相关的访问权限。不到六个月后,OpenAI从微软获得了10亿美元的投资。
是的。我相信这主要归因于这些举动、影响和接管。所以,一方面,你可以持怀疑态度地说,嗯,你把你的非营利组织变成了今天价值300亿美元的实体。
另一方面,现在了解了这段历史,这可能是他们唯一的选择。他们必须筹集资金来获得计算资源,以与谷歌竞争。然后,微软也加入了进来。
是的,真是太神奇了。他们当时之所以这么做,基本上是,这是一个游戏规则改变者,非常昂贵。我们仍然致力于确保人工智能造福全人类,但要实现这一目标将非常昂贵。因此,我们需要基本上成为一家营利性企业,并确保有业务来为最终追求这一使命的研究提供资金。
是的,所以2019年,他们转型为营利性公司,微软投资了10亿美元,正如你所说,并成为OpenAI的独家云提供商,这在接下来的视频中将变得非常重要。稍后我们会详细介绍。2020年9月,GPT-3发布,微软获得了该模型的独家商业使用许可。
2021年,微软的产品中出现了Copilot。微软又向OpenAI投资了20亿美元。当然,这一切都导致了2022年11月7日,用詹森的话来说,全球AI盛会,OpenAI发布了ChatGPT,正如你所说,它以创纪录的速度获得了2亿用户。
今年,微软向OpenAI投资了100亿美元,宣布将GPT整合到其所有产品中。然后,今年5月,GPT-4发布。这基本上将我们带到了今天。
我们最终需要一个关于OpenAI和微软所有细节的完整剧集。但是今天,关键点是:一,由于所有这些通用人工智能作为面向用户的产品出现,这带来了巨大的机遇。二,为了让这一切发生,你需要大量的GPU计算能力,这显然对视频行业有益。但同样重要的是,三,现在很明显,公司获取和提供计算能力的主要方式是通过云。这三者的结合最终成为有史以来最伟大的时刻。
为了一个视频。是的,所以你们团队都在做这些。到目前为止,我想,这就像OpenAI和微软的剧集。这和视频有什么关系?天哪,这里有一个很棒的、通过故事来讲述的故事。所以让我们来看看NVIDIA在IT方面的表现。
好的,听众朋友们,我们下一个赞助商是节目的一位新朋友,猎手。猎手是当今发展最快、最受喜爱的网络安全公司之一。它专为小型和中型企业打造,并提供企业级安全,拥有保护您的技术、服务和专业知识。
他们提供了一种革命性的网络安全管理方法,不仅仅是关于技术的,更是关于真正的人员全天候提供真正的防御。
那么,IT是如何运作的?嗯,你们可能已经知道了,但对于初级黑客来说,购买访问权和有关受损企业的资料已经变得非常简单。这意味着针对小型和中型企业的网络犯罪活动达到了前所未有的高度。
因此,猎手为客户创建了一个完整的托管安全平台。保护他们免受这些威胁。这包括终端检测和响应、身份威胁检测、响应安全意识培训以及革命性的安全信息和事件管理产品,该产品刚刚推出。从本质上讲,它是一整套您保护企业所需的优秀软件,外加由精英安全运营中心团队全天候监控,以阻止软件解决方案有时可能会错过的攻击。猎手正在使安全,特别是网络安全民主化,通过采用历史上仅对大型企业可用安全技术,并将其带给拥有 10 名、100 名或 1000 名员工的企业,并提供对他们有意义的价格点。
事实上,这相当疯狂。现在有超过 12.5 万家企业正在使用,他们对猎手赞不绝口。他们被客户评为连续八年行业领先的终端检测和响应领导者,并在今年夏天再次成为行业领先的托管检测和响应领导者。
是的,如果您想要尖端的网络安全解决方案,并由全天候专家团队支持,他们能够以无与伦比的精确度监控、调查和应对威胁,请访问 hunters.com/acquired 或点击节目中的链接。猎手,谢谢。好的,所以视频。
好的,所以我们刚刚说了三件事,我们在本集的第一部分中描绘了这些画面,即生成式AI可能是真的。现在它正在获得关注。它需要大量的GPU计算机训练。
第三,看起来公司将使用该计算的主要方式是在云端。我认为这三者的结合是本节目中关于运气是准备与机遇相遇的古老格言的最佳范例。所以很明显,机遇是生成式AI,但NVIDIA的准备工作实际上在过去五年中一直在疯狂努力地为数据中心构建一个新的计算平台。
GPU,加速计算平台,旨在取代数据中心中旧的、由英特尔主导的x86架构。多年来,他们确实在数据中心领域取得了一些进展,视频中的增长也在增长。但人们说,好吧,你想让它发生,但为什么它会发生呢?
这里有一些小工作负载,詹妮,我们认为您的GPU可以加速。然后,您知道,像加密货币这样的疯狂事情发生了,并且有AI研究人员在学术实验室中使用它,就像超级计算机一样。但是很长一段时间,NVIDIA的IT数据中心领域并不清楚组织是否拥有大量需要迁移到GPU的软件堆栈。
为什么?是什么在驱动这一切?现在我们知道了是什么可能在驱动这一切。那就是AI。
不仅可能是,而且如果您查看他们最近的季度报告,绝对是。
所以现在的问题是,是什么在驱动这一切?大卫,你愿意让我对计算机体系结构进行一些计算机科学讲座吗?
哦。
请务必做到这一点。在这里尽我所能扮演教授的角色。
我爱计算机科学和大学课程吗?它们是我最喜欢的课程。
我要说的是,在做这些剧集时,这个TSMC真的让我回想起在计算机科学系上课的兴奋。讲座,哦,原来是这样运作的,这真的很有趣。所以让我们退后一步,考虑一下经典的冯·诺依曼体系结构。
如今,大多数计算机、大多数CPU都基于冯·诺依曼体系结构,它们可以在计算机内存中存储程序并运行该程序。您可以想象为什么这是主要的体系结构。否则,我们需要一台针对每项任务专门设计的计算机。
关键是要知道计算机的内存可以存储两件事:程序使用的数据和程序本身的指令,即实际的代码行。在这个例子中,我们即将付钱。所有这些都大大简化了,因为我不想深入研究内存的成本和速度以及内存的位置。
所以让我们保持简单。冯·诺依曼体系结构中的处理器执行用汇编语言编写的程序,汇编语言编译成处理器本身可以理解的机器代码。因此,它用ARM或之前的英特尔等指令集体系结构编写。
例如。
是的。程序的每一行都非常简单。所以让我们考虑这个例子,我将使用一些汇编语言代码来将数字 2 和 3 相加,结果为 5。
你是否在现场观看节目。
在Acquired上,嗯,这是汇编语言代码。所以第一行是我们将从内存中加载数字 2。我们将从内存中获取它,并将其加载到处理器的寄存器中。
所以现在我们有了数字 2,它实际上就在我们的CPU上,准备执行某些操作。代码行 1、2,我们将以完全相同的方式将数字 3 加载到第二个寄存器中。所以我们有两个CPU寄存器,包含两个不同的数字。第三行,我们将执行加法运算,该运算在CPU上执行算术运算,将两个寄存器相加,并将结果存储在另一个寄存器中,或者存储在其中一个寄存器中。
因此,这是一个更复杂的指令,因为它实际上需要执行算术运算。但是,CPU非常擅长执行对数据的算术运算、从内存中获取数据。然后,我们示例中的第四行也是最后一行代码是,我们将刚刚计算出的 5(它目前在CPU上的临时寄存器中)写入内存中的某个地址。所以四行代码是加载、加载、加法、存储。
这听起来很熟悉。
所以您可以看到,这四个步骤中的每一个都能够一次执行一个操作。这些操作中的每一个都发生在CPU的一个时钟周期内。所以你听说过每秒的时钟周期数。
所以一台时钟周期数更高的计算机可以在一秒钟内执行我们刚刚编写的简单程序 2.5 亿次。但是,您会看到这里发生的事情。我们四个时钟周期中的三个用于加载和存储数据到内存中。
这被称为冯·诺依曼瓶颈。这是AI(至少历史上如此)的主要限制之一。
每个步骤都必须按顺序发生,并且一次只能发生一个。所以在这个简单的例子中,增加这台计算机的内存对我们来说实际上没有帮助。我无法使用它。
增加时钟速度也只会带来增量帮助。如果我将时钟速度加倍,我只能将程序执行速度提高两倍。如果我需要像AI工作那样提高一百万倍的速度。
我无法通过提高时钟速度来做到这一点。这不会起作用。当然,提高读取和写入内存的速度会有所帮助。但我基本上受到物理定律的限制。我只能以一定的速度通过电线传输数据。
现在,所有这一切的讽刺之处在于,瓶颈实际上会随着时间的推移而恶化,而不是改善,因为CPU会变得更快,内存大小会增加,但体系结构仍然受到限制。所以这个讨厌的单通道(称为总线),我实际上无法享受几乎应该获得的性能,因为我将所有内容都塞入该通道。并且它只能在每个时钟周期使用一次。
所以神奇的突破,当然,是创建一个不是冯·诺依曼体系结构的计算机,使程序能够并行执行,并大幅增加处理器的数量。NVIDIA在硬件方面确实做到了这一点,所有这些AI研究人员都找到了如何在软件方面利用这一点。但有趣的是,大卫,我们没有做到这一点。这些大型语言模型的限制不再是时钟速度或处理器数量,而是共享内存的数量。
我认为这很重要。这就是为什么数据中心在视频中所做的事情如此重要。
是的,有一个很棒的视频链接到亚洲几何学YouTube频道,我们也在TC剧集中链接了该视频。但今天的限制实际上在于芯片上可用的高性能内存量。这些模型需要同时存在于内存中,并且它们占用数百吉字节。
所以,内存的扩展速度比模型实际增长的速度慢得多。我们很快就会看到,每块芯片上的内存大约是 80 吉字节。
训练AI所需的内存需求非常巨大。因此,将网络计算、芯片和多个服务器的芯片以及多个服务器机架的芯片连接到一个单一计算机(我在这里用引号表示)变得至关重要,以便实际训练这些模型。还值得注意的是,由于我们谈论的极紫外光刻技术(EUV),我们无法使内存芯片变得更大。
在TSMC剧集中,芯片已经达到了极限尺寸。这是一个物理和波长限制。您实际上无法使芯片更大,除非我们有尚未商业化的新发明。所以这意味着您需要大量的内存,非常靠近处理器,并且以尽可能快的速度并行运行,以进行数据传输。再次强调,这是一个非常简化的描述,但您大概明白了为什么这变得如此重要。
好的,回到数据中心。这是视频正在做的事情,我认为其他任何人都没有做,以及为什么它对这个新的生成式AI世界、这个新的计算时代如此重要,这是詹森·杜布斯在数据中心中运行的。
在过去五年中,NVIDIA做了三件事。第一,可能最重要的是,与您刚才谈论的有关,大卫。他们在 2020 年进行了一次非常棒的收购,当时没有人知道。他们收购了一家名为 Mellanox 的以色列小型网络公司。
嗯,它并不小。他们支付了 70 亿美元。
好的,是的。而且它已经是一家上市公司了。
对吗?它已经上市了。
是的,但它绝对很独特。Mellanox 的主要产品是什么?Mellanox 的主要产品是 InfiniBand,我们在我们的ACQ2剧集中谈论了很多,查斯·洛克米勒也谈到了。
InfiniBand 实际上是一个由联盟管理的开源标准,在Crucial中,查斯·洛克米勒在我们的ACQ2剧集中谈到了这一点。有很多参与者,但传统观点是,InfiniBand 速度更快,带宽更高,并且传输数据的方式更有效。最终,以太网是最低公分母,因此每个人都必须实现以太网。
因此,大多数公司实际上都退出了市场。Mellanox 实际上是唯一剩下的 InfiniBand 供应商。是的。
所以您说 InfiniBand 是以太网的竞争标准。它是一种在数据中心机架之间移动数据的方式。在 2020 年,每个人都认为以太网很好。
为什么数据中心机架之间需要比以太网更高的带宽?什么需要在数据中心中通过电线运行 3200 吉比特/秒的带宽?事实证明,如果您尝试将数百个,甚至可能是数百个以上的GPU作为单个计算集群来处理,训练大型AI模型,您需要它们之间非常快的内部连接,对吧?
人们认为,哦,当然,对于学术目的的超级计算机来说是这样。但是企业市场需要的是我的共享云计算数据中心中的以太网,这很好。大多数工作负载都将在同一个机架上完成。
也许,也许,也许工作负载会扩展到机架上的多台计算机,但肯定不会需要将多个机架连接在一起。NVIDIA介入其中。您看到詹森说,嘿,伙计们,数据中心就是计算机。听我说,整个数据中心都需要成为一台计算机。当您这样想时,您就会开始思考,哇,我们真的要通过连接这些机架的电线传输大量数据。我们如何才能将它们视为如果它们都在芯片上,或者尽可能地接近芯片上的内存,即使它们在盒子外面三英尺的地方。
所以,视频中数据中心计划的第一个步骤是在过去五年中完成的。第二个步骤是在 2022 年 9 月。视频发布了一个相当令人惊讶的公告,宣布推出一种新的芯片,不仅仅是新芯片,而是一种全新的处理器,他们称之为Grace CPU。NVIDIA正在开发CPU。这就像一个CPU版的GPU。
我以为所有计算都将加速。我们在这里用ARM CPU做什么?
是的,这些Grace CPU不是用于笔记本电脑的。它们是用于成为整个数据中心解决方案的CPU组件,专门设计用于与这些大型GPU集群协同工作。
这是持续了 30 年的业务的最终目标。记住,当图形卡是英特尔主板上的PCIe插槽的附属物时,然后最终我们看到了未来。
NVIDIA制造了这些GPU,它们是数据中心中的独立盒子,也许是您在进行图形编程时坐在您旁边的这些小型工作站,您直接编程GPU。当然,它们需要一些CPU。因此,他们使用的是AMD或英特尔许可的CPU。
现在他们说,你知道吗,我们实际上只想做CPU。所以现在我们做一个包含GPU、CPU和NV的完全集成视频解决方案。它们之间的连接在高速带和网络中。连接到其他盒子。好了,欢迎来到节目。
再谈谈支撑该平台的第三个支柱,策略,在我们进入我认为你即将要说的剧透之前。你说解决方案,我听到的是毛利率。它的第三部分是GPU。
一直到视频当前为止。GPU一代,数据中心GPU的霍珀一代,视频中只有一个GPU架构,并且相同的架构和来自相同晶圆的相同芯片用于AT和SMC。其中一些用于消费级游戏显卡,而另一些用于数据中心中的100个GPU。
所有这些都是相同的架构,从2022年9月开始,他们将两条业务线拆分为不同的架构。所以有一个以伟大的计算机科学家格蕾丝·霍珀命名的霍珀架构。我想我们现在更多的是在U。
美国海军。格蕾丝·霍珀,得到一个格蕾丝。CPU霍珀,GPU霍珀,格蕾丝·霍珀,8100。
这是为数据中心设计的。然后在消费端,他们开始一个全新的架构,名为Loveless,以爱为名。这就是RTX4XX。你现在购买的顶级RTX40游戏卡不再与为ChatGPT提供动力的H100具有相同的架构。它拥有一个架构。这是一个非常重要的事件,因为他们使用霍珀架构所做的事情是开始使用所谓的芯片堆叠技术,即芯片堆叠技术。
当你开始谈论真正的研讨会时,他们就开始使用芯片堆叠技术。
这是GPU和AI工作负载中内存如此重要的一个概念。这是在DP芯片本身堆叠更多内存的一种方式,基本上是垂直构建芯片的方式。
这是来自TSMC的绝对尖端技术。通过迫使英伟达将他们的芯片架构引入没有这种最新芯片堆叠技术的图形游戏领域,这使得他们能够垄断大量用于制造这些8100芯片的TSMC产能。这使得它们比市场上的其他GPU拥有更多的内存。
是的。所以这涉及到为什么他们现在似乎无法制造足够的芯片的问题?好吧,这实际上是TSMC产能问题。所以这两个组件密切相关,你正在谈论芯片堆叠技术和内存混合技术。
所以有一个来自半导体分析师的精彩帖子,作者指出了2.5D芯片堆叠技术,这基本上是组装这些芯片以使内存非常接近处理器的技术。当然,2.5D是3D,但3D意味着其他东西。它甚至比3D还要多。
所以他们想出了2.5D动态技术。无论如何,TSMC的2.5D芯片封装技术是将多个活动硅晶片,例如逻辑芯片和高速内存堆叠在一起,并将其堆叠在一个硅片上。
这里还有更多复杂性。但重要的是,芯片堆叠技术是GPU和AI加速器封装这些芯片的最流行技术。这是将高速内存与处理器协同封装的主要方法。
再次,记住,现在最重要的就是尽可能提高高速内存,使其靠近CPU。接下来,是逻辑,以获得创建推理的最佳性能。
因此,芯片堆叠技术目前约占TSMC产能的10%至15%,许多工厂都是专门为这些类型的芯片定制的。因此,当英伟达需要保留更多产能时,他们很可能已经预留了TSMC总产能的很大一部分,即10%至15%。TSMC需要增加更多工厂才能让英伟达获得更多芯片堆叠产能。
是的,这需要TSMC数年时间才能做到。
是的,还有更多正在进行的实验,例如,我不能不提到,实际上有在内存中进行计算的实验,就像我们从冯·诺依曼架构转向其他架构一样,所有赌注都取消了。现在我们对新的计算架构持开放态度。有些人正在探索,如果我们直接在内存中处理数据,而不是进行非常耗时、昂贵且耗能的将数据移动到CPU的铜线操作,会发生什么。这很有趣,可以深入了解当今的学术计算机科学领域,他们正在重新思考计算机是什么。
所以英伟达一直在构建的三件事是专用的霍珀数据中心GPU架构、格蕾丝CPU平台和Melon Ox电源堆叠。他们现在拥有一个用于通用AI数据中心的完整解决方案。然后,当我提到解决方案时。
我听到的是利润率。但让我们明确一点,你不需要提供某种解决方案来获得高利润。英伟达的价格由供求关系决定,他们现在正在尽可能增加供应。我相信这是有原因的。英伟达希望每个人都能拥有8100。但就目前而言,价格有点像我给你开一张支票,英伟达在支票上写下他们想要的任何内容,因为对这些产品的需求远大于供应,所以他们的利润率现在非常高。是的。
好的。让我们分解一下他们实际在销售什么。所以,当然,你可以,人们确实只购买8100,关心强大的CPU,关心这些混合技术,并在自己的数据中心运行。
我真正认为最有可能这样做的人是超大型公司,或者英伟达称之为云服务提供商。
这是AWS,这是Azure,这是谷歌,这是Facebook,用于他们内部使用。
英伟达,不要给我这些你组装的DGX服务器。只要给我芯片,我会集成它。我想要集成。
我是一位世界级的数据库中心架构师和运营商。我不要你的,我只想要你的芯片。所以他们卖了很多这样的产品。
当然,英伟达还在生态系统中培育新的云提供商,例如我们的朋友Crusoe、CoreWave和Lamb。如果你听说过这些实验室,这些都是英伟达正在密切合作的新GPU专用云。所以他们正在向所有这些云提供商销售8100和8100之前的产品。
但是,假设你是一家非科技公司,在400到500名员工之间,你不想错过通用AI的船,并且拥有自己的数据中心。那么英伟达为你提供了DGX。
是的,他们有。一个包含完整GPU超级计算机解决方案的盒子。你只需将其插入你的数据中心,它就能运行。市场上没有其他类似的产品。
所有这些都运行在CUDA上。所有这些都使用整个开发人员生态系统完全理解的语言,他们确切地知道如何使用这些产品。
这意味着你已经拥有的所有AI研究人员,所有其他研究人员,他们正在做的所有工作,都将在你的新闪亮AI超级计算机中运行,因为它都运行在CUDA上,令人惊叹,稍后我们将详细介绍CUDA。但是,正如我们所说,你说解决方案。嗨,女孩们。
英伟达以每台15万到30万美元的价格出售这些DGX系统。这太疯狂了。现在,有了这三个新的支柱,霍珀、格蕾丝和Melon Ox,这些系统变得更加集成、更加专有,并且更好。
所以,如果你想购买新的顶级DGX 8100系统,价格从每台50万美元起。如果你想购买DGX GH200超级服务器,这就是AI墙。杰森最近展示了这个巨大的AI墙。
我,它就像20个机架宽。想象一下数据中心中的一整排。
是的,这是256个格蕾丝·霍珀、DGX机架,全部连接在一起,形成一面墙。他们将其宣传为第一个可直接购买并用于训练万亿参数GPT模型的通用AI数据中心。这当然会花费数百万美元,我怀疑不会达到十亿美元,但很容易达到数百万美元。
让我们谈谈这里这张纸牌上的H100。这是一个疯狂的东西。所以他们于2022年9月发布了它。它是A100和8100 GPU的继任者,每台8100的成本为4万美元。所以这就是价格点。
你正在谈论的。这就是他们向亚马逊、谷歌和Facebook销售的产品。
对吗?你提到50万美元的价格点,50万美元是包含格蕾丝CPU和一些其他东西的8100盒子。
算一下。8乘以4万美元,那就是32万美元。所以,英伟达从销售解决方案中获得的额外利润大约是18万美元。这是一个ARM CPU,制造它不需要任何成本。
而且,每台4万美元的8100都有自己的利润率。所以,每次他们捆绑更多产品,完全组装的产品中就有更多的利润。我的意思是,这完全是捆绑经济学。
当你将更多产品组合在一起并为客户提供更多价值时,你就有权获得利润。但仅仅为了说明这种定价方式是如何运作的。所以你想要8100的原因是它比2.5年前的A100快30倍。
它在AI训练方面快9倍。8100是专门为训练设计的。就像英伟达的全自动驾驶汽车一样,很容易扩展。
它有18500个CUDA核心。我们之前提到的例子,就像一个计算核心能够处理那些汇编语言指令。这个8100,他们称之为GPU,有18500个能够运行CUDA软件的核心。
它有640个张量核心,专门用于矩阵乘法。它有80个流式多处理器。所以我们有多少个核心?大约有2万个独特的核心。
它的能耗比A100高得多。我的意思是,这里的一个重要收获是,每次英伟达推出新一代产品时,功耗都会大幅增加。他们既在探索物理学的极限,又受到物理学的限制。
有些东西只有在使用更多能量的情况下才能实现。这个东西重70磅。这是8100的一个重要特征。
每个人都知道,它有……
有四分之一万亿个晶体管,由35000个部件组成。它需要机器人来组装它,所有这些都需要物理机器人来组装,需要AI来设计。他们实际上正在使用AI来设计芯片本身。我的意思是,他们完全重新定义了计算机的概念。
所有这些都是杰森向客户提出的论点。是的,我们的解决方案非常昂贵。但是,他使用他喜欢的一句话。你买得越多。
你节省的就越多。如果你能得到一些。
但是他的意思是,例如,麦当劳正在尝试构建一个通用AI,我不知道客户会点什么,或者你正在使用它来开展业务。如果你想尝试在现有数据中心基础设施中构建和运行它,那么从长远来看,它会花费你更多的时间和成本。如果你只是购买我的超级服务器,你可以在一个月内启动并运行它。
是的。由于所有这些都是加速计算,你将能够做的事情,否则你可能需要更多能量、更多时间和更多成本。购买和运行你的工作负载或从任何云服务提供商那里租用并运行你的工作负载,有一个非常有效的理由,因为结果会更快、更便宜或根本不需要。是的。
而且,杰森的论点是,这些东西确实需要大量能量,但替代方案需要更多能量。所以,如果你假设这些东西会发生,那么我们实际上是在节约能源。现在,这里有一些额外的细节,这些细节只能在这些类型的机器上实现。所以他让所有这些都成为可能,但这是一个要点。
我完全同意。我的意思是,我认为有一个非常真实的案例,即你只需要训练一次模型,然后你就可以一遍又一遍地对它进行推理。我认为,我认为,对于模型训练来说,一个很好的类比是将其视为一种压缩形式。
大型语言模型正在将整个互联网文本转换为更小的模型权重集。这不仅能够以更小的体积存储大量有用信息,而且还能够在每次需要提示模型获取答案时以非常低的计算成本进行推理。当然,你所做的权衡是,一旦你将所有训练数据编码到模型中,重新训练它非常昂贵。
所以你最好第一次做好,或者想出一些方法稍后修改它,许多机器学习研究人员都在研究这个问题。但我总是认为,一个合理的类比是压缩一个包含数百万层图层的Photoshop文件。
好吧,这不是你将发送给客户的东西。你将把它压缩成JPEG,然后发送给客户。JPEG在许多方面都比包含Photoshop文件所有原始层的压缩版本更有用。
但是,你永远无法从那张令人印象深刻的 JPEG 图像中恢复到原始图像。所以,我认为这里的类比就像你正在拯救每个人,让他们不要为了制作完整的 PSD 文件而努力。每次都这样做,因为你只需要使用 JPEG 文件,绝大多数情况下都是如此。
希望我们现在已经对推动生成式 AI 机会出现的进步、IT 确实已经成为一个真正的机会,以及为什么视频(甚至超越显而易见的原因)在此处如此出色地定位,特别是由于这些工作负载以数据中心为中心,并且过去五年来他们一直在努力工作,描绘了一个相对连贯的画面。其次,我们从根本上构建数据中心。
是的。最重要的是,视频最近宣布了其云战略的又一个非常令人难以置信的部分。所以,正如我们一直说的那样。如果你想使用八个 100Ds 和八个 100Ds,假设你是一家初创公司。
你可能要做的就是转到云端,无论是超大规模的云还是专用的 GPU 云,比如 Corria Lam、实验室等等,然后你将租用你的 GPU。然后你对这些进行了研究。那么,这要花多少钱?
我今天查看了公共云的定价页面。我认为我查看的 Azure 和 AWS,你可以获得访问 88100Ds 服务器的访问权限,每小时大约 30 美元。或者你可以转到 AWS 并使用 AP5.48xlarge 实例,它也是 88100Ds,我相信这是一个 HGX 服务器,每小时大约 100 美元,大约是前者的三倍。
同样,我说你可以获得访问权限。我实际上并不意味着你可以获得访问权限。我的意思是,这就是价格。
如果你能获得访问权限,那将是你为 IT 付费的金额,对吧?好的,这只是获得 GPU。但是,如果你购买我们刚才谈论的所有东西,假设你的麦当劳是 UPSR,你很像,你知道,我真的喜欢珍妮。
我会购买你正在销售的东西。我希望有一个完整的集成包。我希望在墙上插上一个我可以运行的 AI 超级计算机。
但我完全支持云端。我再也不使用数据中心了。视频现在推出了 DGX 云。
是的。当然,你可以从亚马逊、微软、谷歌或其他公司租用这些实例。
但是,你没有得到完整的集成解决方案。
你正在获得某种集成方式,云服务器希望通过其专有服务来创建集成。老实说,你可能没有合适的人员来以裸机方式处理这些事情。即使它不在你的数据中心,你正在从云端租用它,根据你的员工,你可能实际上只需要使用网页浏览器,使用一个非常不错的易于使用的网页界面来从可信来源加载一些模型,你可以轻松地将其与你的数据配对,只需点击运行,而无需担心管理位于亚马逊、微软或其他一些稍微危险且更接近金属的云应用程序的复杂性。
是的。所以视频推出了 DGX 云,这是一个虚拟的 DGX 系统,现在通过其他云提供给你。所以 Azure、Oracle 和谷歌。
对吧?这些盒子都位于这些其他公司的服务器机房中。
它们位于其他云服务提供商的服务器机房中。但是,作为客户,它看起来就像你拥有自己要租用的盒子。
你通过视频登录 DGX 云网站,一切都是非常棒的向导式操作。它与 Hugging Face 集成,你可以轻松地部署来自 Hugging Face 的模型,你可以上传你的数据,一切就像上周一样非常忙碌。描述它的方式。
这太不可思议了。视频通过其他云推出了自己的云服务,视频确实拥有。
我认为,它有六个数据中心,但我认为这并不是它实际用于支持 DGX 云的内容。
不是。所以 DGX 云的起价是每月 37,000 美元,这将让你拥有一个基于 100 的系统,而不是一个基于 8100 的系统。因此,视频及其合作伙伴的利润率在此处非常可观。
一位听众帮助估算了构建一个等效的 100 DGX 系统的成本,今天大约是 12 万美元。请记住,这是上一代产品。这不是一个 100Ds,你可以每月租用 37,000 美元。因此,这对于视频及其云合作伙伴来说,在资本支出方面可以实现三到四个月的回报,对企业来说,这更重要,更长远,因为英伟达现在与这些公司建立了直接销售关系,而不是通过 Azure 或谷歌或 AWS 进行中间销售。即使计算机位于他们的云端。
这至关重要,因为在此阶段,首席财务官在最近的财报电话会议上表示,数据中心业务部门的收入中大约有一半来自 CSP(云服务提供商)。然后我相信之后是消费者互联网公司,之后是企业。所以这里面有一些有趣的事情,其中之一是,我的天哪,他们的收入主要集中在 5-8 家 CSP 上。
他们不一定拥有客户关系。他们拥有通过 CUDA 的开发人员关系。他们现在拥有比以往任何时候都更强大的视频开发人员。但在实际客户方面,他们一半的收入是由云提供商中介的。关于这一点的第二个有趣之处在于,即使在当今的 AI 爆发中,数据中心的最大细分市场仍然是消费者互联网公司。
这仍然是你之前谈论的内容,即用户使用机器学习来确定你的社交媒体算法中应该显示什么内容,以及将广告与你匹配,这实际上比所有直接购买英伟达的企业都大。因此,DGX 云的策略是将一些 CSP 收入转变为直接关系收入。
所有这些都使我们来到了今年 5 月,视频报告了 2024 财年第一季度收益,视频在奇怪的 1 月份财年发布了这些收益。我认为 2024 年第一季度基本上与 2023 年第一季度相同,收入增长了 19%,创下 72 亿美元的季度纪录,这很棒,因为 2022 年情况很糟糕,并且从加密货币的下降中恢复过来。
是的。令人惊讶的是,在 2023 年 3 月的战略访谈中,詹森表示,去年无疑令人失望。这是 ChatGPT 发布的那一年。这是该公司经历的过山车。
时间框架在这里非常紧凑。
当然,这部分原因是视频公司摆脱了加密货币,我相信他们对此感到非常高兴。但其中一部分原因是他们还为 TSC 预订了 800 个容量预订单,然后他们认为自己不需要这些,因此不得不将其计提。所以,从会计的角度来看,这看起来像是一笔巨大的损失,在他们去年的财务状况中是一个非常大的污点。但是现在,我的天哪,他们很高兴自己保留了这些容量。
是的,实际上它将非常有价值。所以,说到这个第一季度收益,就像很棒,季度环比增长 19%。但随后他们发布了重磅炸弹,由于对数据中心生成式 AI 计算的需求空前,视频预测第二季度收入将达到 110 亿美元,这将比第一季度增长 53%,同比增长 65%。股价在盘后交易中上涨了 25%。这是一家万亿美元的公司,或者至少它让这家公司成为了一家万亿美元的公司。但是,一家此前估值约为 8000 亿美元的公司,在公布收益后盘后上涨了 25%。
这比我们上次在 4 月份播客时还要疯狂。视频是全球第八大市值公司,市值约为 6600 亿美元,略低于高点。但当时的情况是,股价从高点下跌到 3000 亿美元以下。
然后在几个月内,它又回到了万亿美元以上,而所有这一切都以本周(录制时)视频发布 2024 财年第一季度收益而告终。我们通常不会在 Acquired 上讨论个别收益发布,因为从长远来看,谁在乎?这是一个历史性的事件。我认为这是任何大型上市公司发布的最令人难以置信的收益之一,如果不是的话。真的,无论未来发生什么,上周都是一个历史性的时刻。
最让我震惊的是,他们数据中心部门的收入在这一季度达到了 100 亿美元,比上一季度翻了一番多。在三个月内,他们从 50 亿美元的收入增长到 100 亿美元。只有当他们向客户交付产品时,收入才会发生。这不是预订单。
这不是点击量。这不是挥挥手就能完成的事情。这是我们向客户交付了产品,他们本季度支付的金额比上季度多 60 亿美元。
因此,本季度全公司总收入为 135 亿美元,比上一季度增长 88%,比去年同期增长超过 100%。然后,正如他所说,数据中心部门的收入为 103 亿美元。
因此,在 135 亿美元中,103 亿美元来自一个五年前几乎不存在的部门,比第一季度增长 141%,比去年同期增长 171%。这种规模的增长是 100 亿美元,我从未见过类似的情况。不,市场也没有。
这是詹森第一次在第一季度收益电话会议中提到这一点。所以不是第一次,但他以一种我认为更好的方式重新提出了万亿美元的估值,不是在幻灯片中。我认为这次他只是谈论它。不。
但以一种我认为更好的方式。
这次不同了。我们现在将花一些时间来讨论我们的想法,但这与以往不同。这次,他将视频的万亿美元机会定位为数据中心。这就是他说的话。目前,全球数据中心中坐落着价值 1 万亿美元的硬资产。
每年增长 2500 亿美元。
人们每年在数据中心上花费 2500 亿美元来更新和增加这些资产。视频无疑拥有最连贯、最全面和最一致的平台,可以成为未来大量计算工作负载的数据中心的样子。这与我们之前谈论的,我们将获得该行业 1% 的 100 万亿美元不同。
现在你必须相信的事情是,每当有人描绘一幅图画时,你会说,好吧,我必须相信什么?你必须相信的是,这些 AI 工作负载和它们正在创建的应用程序正在创造真正的用户价值。
有相当充分的证据,我的意思是,ChatGPT 证明了这一点。据传 OpenAI 现在正在进行超过 10 亿美元的营收,可能达到数十亿美元,并且还在持续增长。因此,这再次成为整个繁荣时期的网络导航器。
但是,特别是对于所有这些财富 500 强公司而言,他们的赌注是,每个人在自己的私人应用程序中都会有类似 GPT 的体验,以及数百万其他公共界面。我的意思是,詹森认为,未来每个应用程序都将拥有一个 GPT 前端,这将是你与计算机交互的方式。这将更加自然。我认为他不是指点击按钮,而是指每个人都可以成为程序员,但编程语言是英语。
所以,当你问,为什么每个人都在为此投入这么多资金?这是那些拥有购买力来开出 100 亿美元支票给英伟达的人,他们根据迄今为止看到的数据,坚信这项技术将足以改变世界,从而做出这些巨大的赌注。我们还不知道的是,这是否属实,类似 GPT 的体验是否会成为未来持久的东西?
迄今为止,有相当充分的证据表明人们喜欢这些东西,并且它们非常有用,正在改变人们的生活方式、日常工作、上学等等。但这就是你必须相信的事情。我们想介绍我们节目中长期的好朋友,领先的信任管理平台 Vante。当然,Vante 自动化了你的安全审查和合规性工作。因此,像 SOC 2、GDPR 和 HIPAA 等框架,Vante 负责处理这些原本需要大量时间和资源的努力,让你的组织能够快速轻松地完成。
是的,Vante 是我们在这里和 Acquired 中经常谈论的格言的完美例子,即公司应该只专注于真正让你的啤酒味道更好的事情。也就是说,你应该只花时间和资源在真正能推动你的产品、你的客户和外包所有其他不会产生影响的事情。每家公司都需要与供应商和客户建立信任和合规性。它在支持收入方面发挥着重要作用,因为客户和合作伙伴需要它,但它对你的实际产品没有任何味道。
Vante 为你处理这些事情,没有电子表格,没有分散的工具,没有需要拼凑在一起的安全和合规性要求。它是一个单一的软件平台,通过连接到所有服务来消除你的组织无数小时的工作。现在还有 AI 功能可以使其功能更强大,它们甚至与超过 300 个外部工具集成,并且允许客户与内部系统建立私有集成。
也许最重要的是,你的安全审查现在是实时而不是静态的,因此你可以监控并与你的客户和合作伙伴分享,以增强他们的信心。
无论你是初创企业还是大型企业,你的公司都准备好自动化合规性和简化安全使用,就像 Vante 一样,全球有 7000 多家客户专注于让你的啤酒味道更好。访问 Vante.com,告诉他们你是通过 David 找到的。
感谢节目嘉宾Christina Anta,所有Acquired的听众都能获得Van Outcome/Acquired平台上价值一千美元的免费信用额度。好的。大卫,分析一下,在我们开始分析其他任何东西之前,我们必须谈谈CUDA。关于本期节目中所做的大量工作,但NVIDIA的拼图中有一个巨大的部分我们还没有谈到。感觉。
正如大家所知,第二部分和CUDA是2006年由Jensen和Ian Buck以及Via团队的其他一些人发起的倡议,旨在真正押注于科学计算,让人们能够将图形卡用于不仅仅是图形的用途,并且他们将需要优秀的软件工具来帮助他们做到这一点。这也体现了Gentz的希望,即也许我可以与开发人员建立自己的关系。你知道,可能会有这样一种想法,即微软和英特尔开发人员能够将标准应用到我的芯片上,但我可以拥有自己的开发人员生态系统,这对公司来说意义重大。
因此,CUDA已成为我们谈论的所有AI应用的基础,这些应用都是建立在今天的CUDA之上的。所以,你知道,你听到Johnson和这类人提到CUDA平台和语言。我花了一些时间试图弄清楚,当我观看开发人员会议并实际学习一些CUDA程序时,如何正确地描述它。
它以及如何今天描述它?因为它已经发展了很多。
是的。因此,今天的CUDA从底层开始,包括编译器、运行时、一组开发工具(如调试器和性能分析器)。它拥有自己的编程语言。
CUDA与C++结合,拥有特定行业的库。它适用于他们自2006年以来发布和销售的每一张卡,这是一件非常重要的事情。如果你开发的东西可以在任何视频中运行,那么这将是一个非常统一的接口。它具有许多现有的库的抽象层,这些库经过优化。
因此,这些可调用的代码库可以帮助你简化开发工作,而无需重新发明轮子。所以,你知道,你可以决定你想用C++编写的东西,只需依赖他们的编译器即可让它在视频硬件上运行良好。或者你可以用他们的原生语言编写代码并尝试自己实现功能,包括C++。答案是它非常灵活。
它得到很好的支持,并且有一个庞大的社区正在使用它并构建基于它的东西。如果你查看CUDA开发人员的数量随时间的变化,它于2006年发布。花了四年时间才获得第一万名开发人员。
然后到2016年,也就是13年后,他们拥有了100万开发人员。然后仅仅两年后,他们拥有了200万开发人员。所以,13年获得第一百万,然后两年获得第二百万,到2022年,他们拥有了300万开发人员。
然后,仅仅一年后,2023年5月,CUDA拥有400万注册开发人员。所以,在这一点上,对NVIDIA来说是一个巨大的支持。我认为当你与那里的人交谈时,坦率地说,当我们与那里的人交谈时,他们不会用这种方式描述它。他们不会这样想,CUDA是我们的动机。竞争对手。
这更像是,我们设想未来会有一个快速计算的世界,我们认为还有更多工作负载应该被并行化以提高效率,我们希望人们能够在我们的硬件上运行,我们需要尽可能让它更容易做到这一点。我们将投入大量精力,让我们的公司拥有12000名全职软件工程师,构建这些编程语言、运行时和框架以及所有其他内容,以让尽可能多的人能够构建在我们的基础之上。
这就是构建开发人员生态系统的方式。语言不同,但关键是他们对公司而言,CUDA赋予他们的强大功能具有巨大的参考价值。
这是我们在上一期节目中谈到的一个话题。但真正让我在这次视频中感到震惊的是,他们认为自己,我相信他们是一家平台公司,尤其是在本季度业绩爆表以及股票市场发生的一切之后,一种流行的观点是,我们以前见过这种情况。这种情况发生在思科身上。
你可以说,从更长的时间尺度来看,这种情况发生在英特尔身上。是的,这些硬件提供商,这些半导体公司,在热门时期人们会投入资本支出,而在非热门时期,他们就不会那么热门。
但我认为这并不是描述NVIDIA的正确方式。他们确实制造半导体,他们确实制造数据中心硬件,但实际上,他们是一家平台公司。视频中正确的类比是微软。他们制作操作系统,制作编程环境,制作许多应用程序,对吧?
思科并没有开发人员。英特尔从未有过开发人员。微软有开发人员,英特尔有微软。
但NVIDIA有开发人员,视频有开发人员。我的意思是,他们构建了一个全新的架构,它不是一个普通的计算机。他们打破了50年的进步。
相反,每个GPU都包含一个流处理器单元。正如你想象的那样,你需要一种新的编程语言、运行时以及所有其他内容来处理这种新的计算模型。这就是CUDA,以及它如何运作。并且有许多人以此为生。
如果你与Jensen和其他公司人员交谈,他们会告诉你,我们是一家基础计算机科学公司。我们不仅仅是在这里销售硬件。是的。我的意思是。
当然,他们是一家平台公司。他们也是一家系统公司,有效地销售大型机,这与IBM在过去尝试向你出售价值数百万美元的数据中心系统的方式并没有太大区别。并且所有内容都完全集成在一起。
并且所有内容都只是运作。是的,也许IBM实际上是一个非常好的类比,就像老式的IBM一样。他们制造底层技术,制造硬件,制造硅,制造硅的操作系统,制造客户解决方案,制造所有内容,并将其作为解决方案出售。是的。
好的。在我们开始分析之前,还有几件事需要补充。我想重点说明的一点是,让我们看看时间线,因为直到我们开始录制前两小时我才发现这一点。
2029年3月,NVIDIA宣布以70亿美元现金收购Melanota。我认为我当时正在考虑收购,而NVIDIA突然出现并改变了局面。可以说,没有人真正理解NVIDIA将在那做什么,以及为什么它如此重要。
但问题是为什么?NVIDIA知道这些新模型需要在多个服务器、多个机架上运行。他们非常重视机器之间的带宽。当然,他们如何知道这一点?2020年8月,NVIDIA发布了当时最大的基于变压器的语言模型Megatron。
830亿个参数,在512个GPU上训练了9天,当时以零售价计算,训练成本约为50万美元,在当时,这笔用于模型训练的资金非常巨大,这仅仅是四年前的事情。但他们做了大量研究,并与所有其他从事AI研究的公司合作,他们意识到,是的,这些东西会起作用,并且这些东西需要最快的可用网络。我认为这解释了为什么其他人没有看到Melanota技术价值的原因。
我想谈谈NVIDIA当今业务中的另一个概念,即数据中心是计算机。Johnson在去年与Pen Thom的精彩访谈中谈到了他们构建全栈系统的理念,他们的梦想是拥有并运营一个DGX超级集群。他说,我们构建了全栈系统,但我们的市场策略是去分散化,融入行业计算架构。
我认为这种说法,即客户需要以多种方式使用我们,所以我们需要在这方面灵活。但我们希望构建每个组件,以便如果你将它们组合在一起,它将是一个难以置信的体验,并且我们将找到一种方法,如果你只想以一种方式使用它们,或者你想在云中使用它们,或者云提供商想使用它们来构建产品作为系统,构建全栈系统,但以分散的方式进入市场。
我认为,如果我记得那次访谈,他们对此进行了追问,并问道,你们是否正在构建自己的云?Jensen回答说,也许吧。当然,然后他们以一种“也许我们将来会看到”的方式推出了DGX云。
是的,你可以想象,未来可能会有更多由NVIDIA运营的数据中心。说到所有这些,我们谈到了上个季度的一些利润率数据。他们的毛利率为70%,预计下个季度的毛利率将达到72%。
我的意思是,如果你回到CUDA之前,他们只是一家普通的图形卡制造商,毛利率为24%。所以,从24%上升到70%的毛利率。除了几个季度的一些一次性事件之外,随着他们深入市场并提升差异化,利润率基本上呈季度线性增长。
我们现在确实处于一个位置,我认为这在一定程度上是由于全球企业和在某些情况下甚至政府的供应短缺造成的。你看看英国。
或者一些中东国家,比如沙特阿拉伯,他们只是需要NVIDIA的硬件,这将很快消失。但我认为这个非常高的,你知道,65%以上的利润率是否会持续太久?是的。
我的意思是,我认为这里有两点。首先,我确实相信我们刚才谈论的,NVIDIA不仅仅是一家硬件公司。他们不仅仅是一家芯片公司。
他们是一家平台公司,并且他们所做的事情有很多差异化。如果你想训练GPT或类似GPT的模型,你只有一个选择,那就是在NVIDIA上进行训练。是的,我们应该谈谈许多非GPT类的东西,你可以在平台上进行,尤其是在推理方面。
训练的市场比推理的市场要开放得多。但他们是最棒的,不仅仅是因为他们的硬件。不仅仅是因为他们的数据中心解决方案。不仅仅是因为CUDA。他们之所以最棒,是因为所有这些因素。所以,另一个能说明为什么他们的领导层如此重要的例子是……
我们还没有谈到中国。
是的。那么,情况如何?去年,中国占NVIDIA销售额的25%。他们的大部分销售额都来自中国的超大型企业和云提供商,如阿里巴巴等。
顺便说一句,阿里巴巴可能拥有该地区最大的模型。其GPT竞争对手拥有超过万亿个参数,实际上可能比GPT还要大。
哇,我不知道。是的,嗯,那么,我相信2022年9月,拜登政府宣布了一系列关于先进计算基础设施销售的相当广泛的规定和禁令。大卫。
他们的出口管制并没有说禁令。
我的意思是,是的,这有点微妙。这非常接近于禁令。政府在这些规定中规定,NVIDIA不再能够向中国出售其顶级A100或A800。因此,他们创建了一种满足法规要求的替代方案,即性能法规,A800和A800。
我认为他们基本上只是降低了NVLink数据传输速度。所以,就像购买顶级A100,但数据连接速度没有那么快,这基本上意味着你无法训练大型模型,或者无法像以前那样快地训练。
尽管如此,令人非常惊讶的是,这些芯片在中国的销售仍然火爆。即使是功能受限的版本,它们仍然是中国最好的硬件和平台。我认为这在世界任何地方都是如此。
并且最近甚至出现了一个增长高峰,因为许多中国公司正在解读形势,并认为出口管制可能会变得更加严格。因此,我应该在还能买到的时候买到这些A800。
是的。我的意思是,我找不到比这更好的例子来解释为什么他们的领导层如此重要。
是的,关于NVIDIA的其他方面,我们稍后再说。我的意思是,本期节目是关于数据中心部分。
但他们仍然制造游戏显卡。
值得谈谈Omniverse这个概念,它开始变得非常有趣。在六个月前举行的会议上,他们已经拥有700家企业客户。这很有趣,因为这可能是两个不同世界碰撞的地方。
3D图形与光线追踪,这非常新颖且令人惊叹,演示效果令人难以置信。AI,他们一直在这两个市场中运作,因为这两个工作负载都非常适合并行化。这正是他们最初进入AI市场的原因。如果你回想一下第一部分,NVIDIA最初的任务是将图形变成一种叙事媒介。然后,随着我们意识到,我的天哪,我们的硬件在其他需要并行化的任务中也表现出色,他们的任务范围也扩展了。但有趣的是,未来可能会有应用程序需要同时具备出色的图形功能和AI功能,以实现相同的目标。我的意思是,考虑到我们谈论的NVIDIA的所有其他令人惊叹的独特之处以及他们在这方面的良好定位,他们仍然是图形硬件和软件以及AI硬件和软件的领先供应商。顺便说一句,有一个巨大的应用正在出现,你实际上需要两者兼备。如果这种情况真的发生,他们将取得成功。
最近一次(可能是SIGGRAPH)的主题演讲中,有一个非常酷的演示,NVIDIA展示了一个游戏环境。你知道,一个完全逼真的游戏环境看起来就像一个精彩的游戏,基本上与现实区分开来。但是,你真的需要仔细观察才能分辨出这不是真实的,你谈论的也不是真实的人。
所以,你正在与一个非玩家角色(NPC)交谈,一个NPC给你一个任务,他们展示了这个演示,看起来非常棒,他们就像脚本一样。这个角色对你说的那些话并非事先写好的脚本,而是动态生成的。你明白吗?你玩过视频游戏,角色都是事先编好的。但在你谈论的世界里,你可以拥有由AI控制的、没有脚本的化身,它们拥有自己的智慧,并驱动整个故事。
或者,你可以在模拟中模拟一架飞机,不仅仅是风洞模拟,而是模拟数百万小时的飞行时间,使用世界上的实时天气数据,并利用AI预测未来天气。因此,你可以在生成的图形AI模拟中了解你的飞机可能遇到的真实世界潜在情况。
我的意思是,这类的技术可能会越来越多。关于NVIDIA的另一件事,我们在上一集并没有谈到。他们的员工效率很高。
他们有26000名员工,听起来很多。但作为比较,微软的市值只有他们的两倍,却有22万名员工。所以,微软每美元市值拥有的员工数量是NVIDIA的五倍。
这有点讽刺。你知道,NVIDIA最近才拥有如此庞大的市值。
他们正在构建的平台规模,与微软的规模相当。
对吧?他们每位员工的市值是4600万美元,这太疯狂了,我认为……
将他们的文化翻译成其他文化。我们认识了一些那里的员工。这真的是一种非常独特的文化,就像一家大型科技公司,但你从未听说过其他公司有类似的“大科技”事情,就我所知,我可能错了。
在NVIDIA,没有“在家办公”或“返岗”政策。就像,你只要完成工作,没有人强迫任何人来办公室。他们加快了他们的产品发布周期。
嗯,我还觉得这有点像“要么完成你的工作,要么离开”的情况,就像Jensen记得有40个直接下属,他的办公室基本上只是一个空会议室,因为他到处奔波,一直在打电话,与这个人或那个人交谈,如果你担心员工的职业抱负,你不可能直接管理40个人。
他谈到过这个问题。他说:“我有40个直接下属。”
他们在这个领域是世界上最好的。这是他们毕生的工作。我不需要和他们谈论他们的职业抱负。就像,你知道,对于最近的大学毕业生,我们确实会进行评估。但如果你是一位资深员工,在这里工作了20年,你是这个领域的世界级专家,并且非常高效,我每天早上5点开始工作,每周7天,你也是这样做的。
太疯狂了。
是的,实际上,我听说Jensen接受过采访,我在听他谈话的最后,他说的那些话,Jason,你在视频中做这些事情,真是太棒了。你如何放松身心,我只是,这是引语,直接引语:“我一直在放松。”
我喜欢在工作中放松,因为工作对我来说很放松。解决问题对我来说很放松。取得成就对我来说很放松。他非常认真,非常认真。
Jensen多大了?
这家伙60岁了。
我感觉他所有的同龄人都已经退休或放松了,你知道,在经营他们的公司时放松。还有另一批人正在这样做,这对他或他正在做的事情一点也不有趣。我觉得他还有30年的时间,他正在以一种方式构建公司,这正是他的计划。
我认为那里没有人,或者他们正在为接替他的人做准备。我认为公司是Jensen的思想、意志、动力和对未来的信念的延伸。这就是发生的事情。
我不知道是否存在Jensen和Lorry的基金会,但如果存在,他不会花时间在这些事情上。他不会购买体育特许经营权。他不会购买大型企业,或者如果他购买了,他不会谈论这些事情,他正在努力工作。
也不会购买社交媒体平台和报纸。
是的,完全正确。
我的意思是,当你观看他们的主题演讲时,这非常具有指示性,Jensen在台上,还有客户演示。但这不像苹果的主题演讲,蒂姆·库克会叫他上台。这是一个Jensen秀。
对吧?我认为没有人会指责蒂姆·库克不努力工作。但是,你看看蒂姆的主题演讲,他做完欢迎致辞后,会把舞台交给其他高管,他们会谈论各种事情。
早上好。
给Maple。
我爱你。
很高兴能和你聊聊鞋子。
这将是一个很好的关于鞋子的文字,对吧?力量在左边。
狗的力量。
好的。所以,对于那些新听众来说,这是我们谈论的领域,或者说,我们谈论的是使公司能够实现持续差异化回报,换句话说,比他们的竞争对手更赚钱,并且能够持续下去。NVIDIA非常引人入胜,因为他们似乎有一个直接的竞争对手,但这并不是他们最有趣的竞争形式。
这方面,表面上看,他们与AMD竞争,但AMD没有像NVIDIA那样从TSMC、三星等公司保留的产能,至少不是用于高端GPU的2.5D封装工艺。AMD没有CUDA的开发者生态系统。他们是最直接的竞争对手。
但这是亚马逊在构建传统和推理能力。这是如果微软决定像传闻中那样与AMD一起建造自己的船。这是谷歌和TPU,Facebook开发PyTorch,然后利用他们在开发社区中的立足点来弄清楚如何扩展到PyTorch之下。有很多竞争因素正在针对NVIDIA,但不是直接的。
不是为了维持所有数据集,硬件提供商现在也是他们的直接竞争对手。是的,我看到了。
现在,说了这么多,他们拥有很多优势。因此,当我们逐一分析时,我认为让我们先列出所有这些,然后我们可以决定这里是否有值得讨论的内容。反向定位是我实际上认为这里没有内容的地方。我认为NVIDIA没有做任何其他公司主动选择不做的事情,因为任何公司都希望被羡慕。或者现在。
我本来同意你的观点,但我实际上认为,在当前的数据中心领域,NVIDIA确实有强烈的反向定位,Jensen几年前就打出了旗帜,他们表示他们将重新设计数据中心,所有现有的数据中心硬件和计算机提供商都有强烈的动机不去这样做。
但是,现在你认为其他数据中心硬件提供商……
他们没有做什么?是的,他们正在尝试将GPU放入数据中心,以便……
每个人都将追逐多年来每个人都在做的事情。这就是目前市场的情况。是的,好的,问题是,NVIDIA是否能够以重要方式保持领先地位?我认为目前对公司的所有分析都集中在他们以何种方式对广大客户和大型市场产生影响。
他们是否能够持续领先于那些试图复制他们所做事情的人,因为利润率如此之高,你看到人们不想放弃这份工作。所以,第二个是规模经济,这在NVIDIA身上体现得淋漓尽致。当你有规模时,你可以进行巨大的固定成本投资,并将这些成本分摊到所有产品上。
当你拥有400万希望在你的平台上开发的开发者时,你可以证明任何成本都是合理的。今天,在LinkedIn上,有1600人积极在NVIDIA工作,他们的职位描述中包含CUDA。我的意思是,实际上可能还有更多人刚开始。
你知道,他们说软件……类似的东西。但成千上万的人投资于软件,他们可能从中获得少量利润,但对整个开发人员群体来说,这仍然是微薄的。
我认为值得在此处多谈一点,我们在上一集也谈到了这一点。对我来说,这里的动态与苹果和iOS非常相似。是的,与Android相比。
苹果有成千上万的开发者在开发iOS。Android也有成千上万的开发者在开发它,遍布整个生态系统。但在苹果,一切都受到严格控制,并且与硬件紧密结合。而Android则不同,作为用户,你可能无法获得最新的操作系统更新,或者你可能不想要……
我认为这里最恰当的描述是,NVIDIA是AI领域的苹果,而PyTorch之类的则是Android,因为它开源,并且有很多不同的公司关心它。OpenCL是图形领域的Android,但它很糟糕,而且很糟糕。AMD的竞争对手是Koda,是为他们的硬件开发的。
但同样,采用率并不高。他们正在开发它,但他们开源了它,因为他们意识到他们可以与NVIDIA直接竞争,他们需要不同的策略。但是,他们绝对在运行苹果的模式。
我认为,在当前情况下,这比iOS与Android更有利于NVIDIA,因为NVIDIA有数十、数百,现在数千名工程师在过去16年里一直在开发CUDA。与此同时,开源生态系统中的Android等效物才刚刚开始。
如果你考虑iOS和Android之间的发布时间差,那么NVIDIA可能至少领先10年,甚至更接近15年。我们与一些人谈论过这个问题。我们问:“开源系统中发生了什么?”
有没有Android等效物?即使我们谈话中那些最乐观的人,我们也会说:“是的,你知道,现在Facebook已经将PyTorch转移到基金会之外,这意味着其他公司现在可以贡献,你知道,几十名工程师来开发它。”你可能会说:“太棒了。”所以AMD可能会贡献几十名,也许一百名工程师来开发PyTorch。所以谷歌,所以Facebook,所以NVIDIA有成千上万的工程师在开发它,领先了十年。
谢谢。这是我估计自2006年成立以来每年在CUDA上工作的员工数量的图表。如果你查看曲线下的面积,并进行积分,它大约是1万个人的年工作量,投入到CUDA中。真是太棒了。
现在我可以……开源是一个非常强大的工具。市场激励绝对存在。
对吧?这是……有趣的是,每个模式只有在城堡足够小的情况下才有效。如果终点线的奖品变得足够大,你需要一个更大的堡垒,你需要弄清楚如何更有效地保卫城堡,这里使用了这么多比喻。
但你明白了,是的。
我喜欢,当目标市场是1000亿美元时,这是一种非常好的模式,但现在是万亿美元的市场机会?可能不是。基本上,这意味着利润率会下降,竞争会随着时间的推移变得更加激烈。
我认为NVIDIA完全理解这一点,因为我一直在思考,我们在第一部分中谈到了NVIDIA如何为了拯救公司而将图形卡的发布周期从两年缩短到六个月,而他们的竞争对手坚持了两年。然后他们又回到了年度发布周期。
自NVIDIA重新调整为六个月的发布周期以来,每年都有年度GTC。自GTC以来,他们每年发布两次,这对于他们正在进行的技术复杂性来说是疯狂的。想象一下苹果每年举办两次WWDC。
是的,这就是NVIDIA正在做的事情。太疯狂了。一方面,这是一种文化。另一方面,这表明他们意识到我们需要全力以赴地与竞争对手抗衡。
我们建立了一些结构化的方式来保护业务,但我们需要像以前一样快速地运行才能保持领先地位,因为这是一个非常有吸引力的……
比赛。是的,所以规模经济,让我们转向转换成本。
到目前为止,所有重要的事情,特别是模型训练,特别是大型语言模型,都是建立在NVIDIA平台上的,这本身就是一个庞大的代码库和大量的组织动力。因此,即使从软件的角度来看,转向其他平台也会很困难。但是,在2023年,大型科技公司和财富500强公司都在自己数据中心……
做出将持续至少五年,甚至更长时间的数据中心采购和部署决策,因为数据中心架构的重新设计并不经常发生。因此,你可以相信NVIDIA正在尽其所能地交付尽可能多的产品。他们拥有领先地位,可以将数据中心架构保持在未来十年。
是的,我们与许多人进行了沟通,为本期节目做准备,其中一次最有趣的对话是与我们最喜欢的公开市场投资者之一进行的,他们……
这些家伙从他们的角度提供了很多见解。
所以,他们显然一直在关注NVIDIA在该领域的动态,他们指出,数据中心收入和数据中心客户是人类已知的最稳定的收入来源之一,数据中心采购和数据中心架构的组织转换成本非常高。即使是说服4000多家公司改变他们的决策,也需要十年左右的时间。
因此,即使我们目前正处于围绕通用人工智能的兴奋时期,而我们可能还没有完全了解所有应用,NVIDIA也在利用这种兴奋来获得更多市场份额。我看到一些人在网上说他们喜欢他们面临的供应限制。我不这么认为。我认为他们正在尽一切可能寻找产能,以利用这一机会。
嗯,确实存在。我完全同意,是的,我认为你知道,我再次没有和负责这个的IT视频CF团队谈过。但我强烈怀疑,如果我和他们谈,我很乐意用一些这女孩的保证金来换取销售额的提升。
是的,但是只有一个T、S、M、C,而且他们拥有的能够进行他们所说的2.5D架构的晶圆厂数量有限。
那么,我们是否应该谈谈角资源?
是的,这可能就是教科书式的角资源。视频公司可以访问T、S、M、C的大量产能,而他们的竞争对手无法获得,这在这一季度中他们有点幸运地获得了这种资源。他们将所有这些产能都保留下来,用于不同的目的,部分是为了芯片。
T公司从事矿业,但AMD没有IT。AMD确实拥有大量产能,值得一提的是,在TSMC用于其其他产品(数据中心CPU)方面,他们实际上做得很好。但是,视频公司最终在TSMC的Coaster活动中获得了完全属于自己的广阔通道。他们必须充分利用这一点,只要他们拥有IT。
是的。我想补充一点,这并非像我们之前在TSMC的节目中讨论的那样,虽然TSMC是一个合同,但IT恰恰相反,尤其是在最高和最前沿的领域。
这就像外星人送来的发明,只有极少数人类知道如何实际操作。
是的,IT值得拥有。
知识积累。对于L.M来说,这有点像一场双马大战。
培训。我知道我们一直在强调NVIDIA,但谷歌的TP也大量生产。你只能通过谷歌云获得它们。我认为,我不知道你是否必须使用TensorFlow框架,其受欢迎程度相对PyTorch有所下降,但它无疑是使用TP和视频硬件的行业标准。我怀疑许多TP的使用量是由谷歌内部用于谷歌搜索等工作。我知道我们已经为搜索添加了许多通用AI功能。
是的,完全同意这两点。仅仅坚持讨论业务范围和市场。这是一个重大战略冲突的受害者。
谷歌,显然,你想要做的事情是视频公司正在做的事情,即你的客户想要通过云购买,你希望在每个云平台上都有存在。但很明显,谷歌不会进入AWS、Azure和甲骨文以及所有新的云提供商。他们只会进入GCP。
也许是戴维,但我当时想……
说,尽管扩展了长度,但我认为这对谷歌来说是有意义的,因为他们的主要业务是他们自己的产品。
对吧?他们经营着世界上最赚钱的企业之一。因此,他们能够做任何有利于进一步扩大和延长其运行时间的,他们可能应该……
所有这一切都没有改变,机器学习所带来的上一代AI功能,社交媒体和互联网应用是已知最赚钱的现金流来源,所有这些都没有改变。在当今世界仍然如此,对谷歌来说仍然如此。
我最后强调的是网络经济。他们拥有大量开发人员和客户,可以推广这些技术投资,并且所有人都受益于彼此。我记得有人在CUDA之上构建库,你可以使用其他人构建的构建块来构建你的代码。
你可以编写出色的、更简洁的程序,因为代码行数少,因为它调用了其他预先存在的代码。2006年,NVIDIA做出了一个当时非常昂贵的决定,这是一个重大的投资决策。但它看起来并突出显示,以确保每块出厂的GPU都完全可用。
如今,有5亿个开发人员可以使用的GPU。这非常有吸引力。将此放入网络经济中,我认为这可能更像规模经济,而不是网络经济。
但是,你可以想象,在2006年至2012年期间,许多围绕视频公司的人会问,为什么我必须使我的软件适合这个小小的足迹?我们可以将CUDA占用大量空间纳入其中,并进行所有这些权衡,以及硬件,以便我们可以使用CUDA。如今,它就像……
所以,天才和我们,我们在这档节目中多次讨论过这个问题,包括与锤子和他们自己。但是对于像视频公司这样的平台公司来说,很明显,有一种特殊的品牌力量,即规模经济和网络经济的结合。这就是你所获得的。
是的,他们确实拥有品牌力量,当然。是的,我实际上……
认为值得稍微谈论一下。
但这是没有人因为骑自行车而被解雇,NVIDIA是AI时代的现代IBM。是的。
听着,我对这个话题的信心不足,无法将其摆在桌面上。但是考虑到公司成立的方式,他们存在了多长时间,以及他们还在图形领域拥有完全不同的市场领先产品(包括消费者和专业图形),我认为这确实赋予了他们一些品牌力量,尤其是在CIO和高管层做出购买决策时。就像每个人都知道视频公司……
你认为他们将他们的消费者品牌带入了企业姿态。
这位于堆栈和力量的底层,但我认为这并没有伤害他们。他们一直被认为是技术领导者,而且全世界已经知道,他们能够实现的功能是神奇的。
这里存在一个“力量带来力量”的强大优势,我敢打赌,上个季度的营收结果将远远超过他们从消费者端获得的任何品牌效益。我认为这仅仅是因为,嘿,看看,其他人都在购买视频公司。
我还没有任何想法,但没有人因为正确的原因而被解雇……
或者对他们产生很大的依赖,或者针对该开发平台。这仅仅是因为,如果你在你的业务中进行创新,你不想冒平台的风险。你构建的基础,你希望成为价值链中唯一的风险……
那么最后一个,对吧?这个过程的力量……
是的,这可能是最弱的一点,即使我确信你可以提出一些论点,他们拥有处理能力,但其他所有力量都更有价值。
总是很难区分。是的,你知道,我认为这里的论点只是视频公司的文化以及他们过去拥有的、一段时间内没有的六个月交付周期,现在他们又……我不知道。我认为你可以提出一个论点,即这是可行的。
让我们进行一个思维练习。他们的任何竞争对手真的能够在任何领域都转向六个月的交付周期吗?这确实很难。你知道,苹果公司大小的公司是否会因为WWDC而一年一次,不会。
问题是,这真的重要吗?现在有很多人正在使用100系列。事实上,除非你正在进行GPT-4的模型训练,否则大多数工作负载都可以运行在100系列上。
我只是不知道这是否真的重要,或者是否像其他因素一样重要。我会给你举个例子,AMD在其最新的GPU上确实使用了3D封装技术。这是一种更先进的方法,可以实现真正的铜连接,而无需硅和电源。
我正在深入细节,但基本上,它比H100 2.5D用于确保内存与计算单元极其接近的过程更先进。这重要吗?不是真的。重要的是我们正在讨论的所有其他因素,没有人会因为这个原因做出购买决策,因为它只是……你知道,一个稍微好一点的捕鼠器。
更深入地思考这个问题,我认为品牌力量现在对视频公司来说确实很重要。
是的,并且以一种力量带来力量的方式,所以你可以看到为什么他们试图抓住这一时刻。
是的,游戏计划,对吧?让我们继续游戏计划。
我想指出的一件事是,詹森一直将这称作AI的iPhone时刻。当他说到它时,普遍的理解是他指的是一种新的主流方法,用于与计算机交互。但还有另一种解释。戴维,这听起来熟悉吗?当我说一家硬件公司通过软件来区分自己,然后扩展到服务领域时。
是的,是的,这听起来熟悉。
用AI的iPhone时刻来指代视频公司自己,就像苹果公司一样,这有点讽刺,因为我认为两者之间的相似之处非常明显,他们拥有视频公司提供的集成硬件和软件堆栈,你使用他们的工具来开发它。他们已经交付了最多的产品。因此,开发人员有大量目标市场。
这是最容易吸引个体买家的目标,因为他们对成本最不敏感,并且他们欣赏你为他们构建最佳体验。从许多方面来说,它就像iPhone,但从许多方面来说,它更好,因为目标是B2B目标,而不是消费者。唯一不同的是,苹果公司的市值总是滞后于其向用户证明的价值,而视频公司现在正处于其巅峰时期。
好吧,让我们在最后讨论牛市和熊市。很好。
第二点是,他们已经从一家硬件公司转变为真正的系统公司。在视频公司,芯片通常处于领先地位。在芯片与芯片的比较中,这真的无关紧要,这不是一个公平的竞争环境。
这完全取决于多块GPU和多架GPU机架如何协同工作,作为一个系统,包括所有硬件、网络和软件,他们拥有的纳米结构彻底改变了竞争格局,我认为许多公司都可以从中学习。我这里第三点是约翰在同一采访中说的这句话,即通过做别人做不到的事情来建立伟大的公司。你不会通过与他人竞争来建立公司,去做任何人都能做的事情。
我认为这非常微妙。它以各种有趣的方式出现,其中之一是NVIDIA从未专门投入资源来构建CPU,直到他们有真正理由构建自己的CPU,现在他们正在做的事情,顺便说一下,并没有太大区别。他们正在使用现成的ARM架构,并加入了一些自己的秘密调料,但这并非像苹果公司那样从头开始创建芯片。
这不是英雄产品,对吧?
视频公司以多种方式应用了这一点,我认为我们在上一期节目中讨论过,如果他们认为这将是一个利润低的机遇,他们就不会追求它。但更优雅的说法是,我们不想与任何人都能做的事情竞争。我们想做只有我们才能做的事情。顺便说一下,只有通过这种方式,我们才能充分实现这些事情的价值。
我们确实做了,是的,我认为这可能是视频公司在这里的一个相关的游戏计划,即在时机成熟时发动攻击。我怀疑过去十年或十五年里,詹森和公司内部的许多竞争驱动和动力都源于与英特尔的对抗。他们试图杀死他们。
正如我们在之前的节目中多次讨论过的那样,我们采访过某人,他将英特尔比作乡村俱乐部,而视频公司是搏击俱乐部。在过去,整个乡村俱乐部都不想让视频公司进入,英特尔控制着主板。英特尔控制着最重要的芯片,即CPU。
英特尔最终会将所有其他芯片整合到主板中,并使其商品化。如果他们做不到这一点,那么他们会尝试自己制造芯片。他们试图在视频公司身上实施所有这些游戏计划。
视频公司勉强存活下来。然后,在数据中心控制数据中心方面,很长一段时间以来,P、C、I表达一直是数据中心中的连接。视频公司必须生活在其中。我敢肯定,他们讨厌每一分钟,但他们并没有在十年前突然意识到,嘿,我们正在制造CPU 2.0。他们等待时机成熟。
这很疯狂。他们必须连接到其他人的服务器。然后他们开始制造可以连接到其他人的机架和架构的服务器,然后开始制造自己的机架和机柜。在某个时候,他们将开始运营自己的建筑物,运行自己的服务器,我们将说我们不需要……
连接任何东西。是的,但我认为对于许多领导者来说,他们能够拥有这种耐心,这有点困难。
完全同意,你只有在行业领先十年,在创造这些真正的突破性创新方面具有极大的创造力和创新性时,才能做到他们正在做的事情。我们真的在谈论巨大的市场。不,除非你做到了这三件事……
对于500名CIO来说,他们不会做出购买决策。你刚才说的任何事情都不正确。
对吧?所以,在结束与鲍恩熊的案例之前,我想和你进行一次有趣的对话。所以,让我们回到我们关于AWS的节目。
我们谈论了很多关于AWS如何锁定自身的问题。一旦你的数据被发送到特定的云平台,数据库就具有极大的持久优势,通常甚至需要用装满硬盘的半挂车来运输。很难从它那里转移出来。
一个有趣的问题是,赢得所有这些谷歌、微软和亚马逊的云平台是否真的能够帮助他们在云AI时代获胜?从一方面来看,你可能会认为,是的,绝对的。因为我想在我的数据旁边训练我的AI模型。移动我的数据模型非常昂贵。为了做到这一点……
一个例子是,微软是OpenAI的独家云基础设施提供商,据我们所知,它完全依赖于视频公司的基础设施。但他们购买了微软,对吧?
另一方面,客户正在要求的体验是完整的视频体验,而不是……哦,你找到了提供我想要体验的最低成本方式。有时,云提供商必须提供100系列或8100系列,因为我的代码太复杂,无法针对他们提供的任何加速计算设备进行重新架构,这对于他们来说可能更便宜,我不知道。我只是认为,在过去五年左右的时间里,我第一次稍微歪着头看着这些现有的云提供商,并想,嗯,也许真的有与他们竞争的途径。云并非一成不变。
是的,嗯,这里大部分都是。云计算是数据中心的,呃,主义,对吧?公共云中的超大规模不仅仅是数据中心,对吧?但是从物理上讲,他们的数据中心之间有数英里的距离,就像股票和AWS之间有Oracle的距离一样。
但是他们的数据中心。并且至少根据詹森的说法,数据中心正在发生根本性的转变。我认为这可能会导致云市场必须应对一些变化。
是的,我认为其发挥作用的方式是,你在云计算中的位置将强烈地决定你在这个AI云领域中的位置。因为归根结底,如果客户需要视频等内容,而云提供商有世界各地的所有资源来确保你的应用程序可以在他们的云中运行良好。
但是,还有更多内容,对吗?存在,正确?存在。存在。实验室存在。这些实验室资金充足。这些初创公司拥有数十亿美元的资金,许多聪明人认为这是一个巨大的云计算机会。是的,几年前这不会发生。
非常正确。好吧,让我们做一下最坏情况分析,并解决这个问题。
我们一直在拖延这个问题,尽可能拖延。这是目前正确的问题。
是的,我的意思是,部分原因是,如果GPU实际上成为一个每年数百亿美元的市场,而现在数据中心中的GPU市场是每年300亿美元,明年将达到500亿美元,那么他们的现有业务规模是否足够大?如果事情真的像每个人都认为的那样发展,那么这些大公司为了不进行大量投资而放弃的利润实在太多了。
一些公司投入了数十亿美元,例如Meta投入了150亿美元用于头显,亚马逊投入了数十亿美元用于设备,这从所有方面来看都是一项糟糕的投资。回声如何获得回报?
我的意思是,总的来说,我非常失望。我已经将我的房子标准化到回声生态系统中,但它变得越来越糟糕。在这个AI能力不断加速的世界里,我的回声怎么会变得越来越糟糕?
我需要更努力地训练和推断它们。
天哪,好的,租金结束了。是的。
我的意思是,永远不要怀疑大型科技公司为了获得足够大的回报而投入数十亿美元。这些都是利润丰厚、狡猾且开放的。亚马逊,利润不是那么高。
是的,但是谷歌、Facebook和苹果。在某个时候,这里存在一场鸡飞蛋打的游戏。其中一些公司会全力以赴,并说,啊,我们有聪明的工程师,我们可以解决这个问题。
是的,但是永远不要低估大型科技公司在执行需要大量战略思考的事情上的能力。
是的,是的,好吧。所以让我们实际进行最坏情况分析。让我们从最坏情况分析开始。
我认为你刚刚阐述了第一个最坏情况,即所有其他科技公司现在都处于一致和激励的状态,即我要分一杯羹,这些公司拥有难以估量的资源。是的。
为了更明确地说明这一点,让我们花一点时间看看PyTorch。现在,所有开发人员或许多开发人员都在使用PyTorch。它确实能够聚合客户,这为他们提供了放弃中间商的机会。
也许你必须在下面编写很多新内容并交付很多硬件。我的意思是,云服务提供商已经采取了一些措施。它最初是由Meta开发的。
虽然它是开源的,但如果它真正由Meta拥有和控制,那么所有这些公司都难以投资于它。所以现在PyTorch已经转移到一个许多公司都在贡献的基金会。同样,将PyTorch与视频进行比较是一个绝对错误的等价物。但在实际的边际和聚合理论中,如果你聚合客户,你就有机会获得更多利润,从而直接影响关注点。PyTorch拥有这样的机会,这感觉就像许多CSP将尝试竞争的方向,并说,看,如果你正在为PyTorch构建,那么它在我们的产品上运行得也很好。
是的,当然,毫无疑问,这会发生,对吗?所以这是第一个最坏情况分析的一部分。
下一个是,市场规模并不像市值反映的那样大。我认为在接下来的12到18个月内,投资者信心出现动摇的可能性相当大,在某个时候,我们会发现,哦,也许GPT并没有我们想象的那么有用。也许人们不想看到中国人的脸。
这种信心危机,许多泡沫破裂,会波及到美国的首席执行官。首席执行官会更难以在卧室里倡导进行这项重大的基础性购买。我们今年商定的预算架构,我正在尝试建议我们进行更改。
加密货币的兴起和破灭,对一些公司来说,会减缓他们的支出。问题是,当这种情况发生时,因为这并非必然,如果这是一个胜利,我很难相信,鉴于目前围绕所有事物的炒作,AI将比人们想象的更有用。它可能会以线性方式继续下去,而不会有任何下降,每个人的兴奋只会越来越大。它最终可能比任何人想象的更有用,但在某个时候,会有一个价值低谷。在信心危机期间,视频如何表现?
这很有趣。你知道,我们再次与许多人进行了交谈,包括一些最杰出的AI研究人员和从业者以及创始人,并看到许多公司正在做所有这些事情,并且几乎与我们所谈论的完全一致。
当我们向他们询问这个问题时,他们都说,是的,这现在是过度炒作,当然,显而易见,但在十年时间尺度上,你还没有看到任何东西。我们相信即将到来的变革性变化。你甚至可以想象最...
关于过度炒作最有趣的事情是,它实际上正在转化为收入。所有购买这些计算能力的人都相信某些事情。对于视频来说,因为它以收入的形式出现,那么这种信念就是真实的。因此,他们只需要确保他们能够让客户真正实现尽可能多的价值,就像世界各地的IOS目前正在投资的那样。是的。
所以,我认为现在值得讨论的要点是,好吧,生成式AI。是的,它真的像人们所说的那样吗?大卫,我已经问过你...
这个月。但是一个月前,你正在浏览桌子,坚持说,我根本不需要,我从未使用过ChatGPT。我发现它一直在波动,我从未想过要使用它。它不是我工作流程的一部分,或者...
你仍然基本上处于那个状态,包括强迫自己尝试使用它来准备这次播客。但是,随着我们与更多人交谈,我认为大卫的用例在这里根本不重要,对吗?因为作为一个企业,我们是一个如此高度专业化、独特的独角兽,准确性和我们自己投入到播客中的工作和思考是至关重要的。
我们没有同事。关于我们的业务有许多奇怪的事情,例如我们永远不必为会议准备简报。
对吗?我们为外部准备的所有内容都是我们热爱的事情。我们内部没有任何准备。
我知道有人用ChatGPT来设定他们的OKR。然后他们说,OKR是什么?他们说,我希望我的生活也能像那样。这就是我使用ChatGPT的原因。
做正确的事情。老实说,我认为你在和一些人交谈并阅读之后,我认为现在有一个非常有说服力的用例,用于编写代码,无论你是初级软件开发人员还是高级软件开发人员,你都可以从今天开始获得更多杠杆作用,并使用Copilot。所以这有价值吗?你确定这有价值。是的。
大型语言模型非常擅长写作和帮助你写出好的东西。我非常相信这个用例。
然后,我认为现在有一些稍微更具投机性的东西,但你实际上可以开始看到,例如我最近在视频中提到的游戏演示,你正在与一个不是脚本化的非玩家角色对话。我们最近在ACQ2播客中与Runway的Chris Manzella进行了对话,他谈到了“一切皆有可能”。他说,这只是冰山一角。今天在这些领域使用生成式AI可以做的事情,是令人难以置信的。
是的,我认为你所说的就是,你可能会对自己的体验持悲观态度。每次你尝试使用生成式应用程序时,它都不适合你的工作流程。你没有发现它有用。
你不是粘性的。但另一方面,AI实际上将是一系列细分市场的总和。存在游戏市场、写作市场、创意写作市场、软件开发人员市场、营销文案市场。你知道,有数百万这样的细分市场,你可能不会落入其中几个细分市场。
是的,对我来说,至少从个人角度来说,我最初持有一种强烈的怀疑态度,因为时机太完美了。你知道,就像所有关于加密货币的讨论一样。你刚刚告诉每个人加密货币是未来,然后你所谈论的一切都跌落了5%。
呃,有多少人像这样筹集资金,然后说...
未来是AI。
这是有史以来投资的最佳时机。
所以,我内心深处有一部分人只是说,冷静点,伙计们。
是的,太完美了。
太完美了。但是最近几个月,视频中显示,撇开所有这些因素,40多家公司正在采用这些技术。IOS也在采用这些技术。他们正在用真金白银购买这些技术。并且还了解了训练这些模型以及从数十亿参数到数千亿参数再到万亿参数模型的知识和实用性方面的步骤、规模和功能。是的,这肯定有人在做。
所以这导致我下一个最坏情况分析,即模型变得足够好,然后它们都将被训练,然后将转向推理。大多数计算将发生在推理阶段,推理阶段的差异性较小。我有很多理由不相信这种流行的说法。
我之所以不相信,一个主要原因是,在我们的研究中,大卫非常清楚,除了Transformer之外,还有其他研究阶段正在进行。这些体验只会变得更神奇,只会变得更高效。所以,这方面存在一个最坏情况分析,即我们现在正在使用蛮力方法来处理这些事情,而所有这些收入都流向了Nvidia,因为他们制造了这些蛮力工具。
随着时间的推移,例如,你看看谷歌的Chinchilla或Llama,它们使用的参数比GPT-4少,但质量相当,或者你知道,许多其他人可以判断,但它们是高质量的模型,参数更少。所以,围绕未来模型将更聪明,不需要那么多计算能力,存在这种潜在的最坏情况。值得提到的是,即使在今天,绝大多数AI工作负载看起来都不像大型语言模型,至少直到最近才如此。
大型语言模型就像人类历史上需要大量计算能力的任务的最大值。我想知道这是否会持续下去?我的意思是,许多其他神奇的AI体验已经发生,并且使用成本更低的模型训练,例如扩散模型,以及整个图像生成AI类别,我们在这期播客中并没有过多讨论,因为它们计算量较小。但是许多任务不需要整个互联网的训练数据和数万亿参数才能完成。
是的,这对我来说很有意义。我认为工作负载也正在转向推理。我同意你的观点,我认为训练不会消失。但是直到最近,你回想一下谷歌的时代,训练是每个人都在花钱的地方。每个人都专注于此,随着这些东西的使用量增加,推理和推理,当然,推理是模型训练后必须进行的计算,以获得输出,这将成为更大的部分。正如你所说,围绕此进行的基础设施和生态系统差异性较小。
比训练更小。
好吧,这些是最坏情况分析。可能还存在一个关于中国的最坏情况分析,这是一个合理的情况,因为这将给很多人带来问题。
这是一个巨大的市场,他们短期内无法以有意义的方式解决。
以及一般会发生什么,很明显,中国正在努力开发自己的本土生态系统和竞争对手,这将是一个封闭的市场。那么会发生什么?
会发生什么?是的,这绝对是我最后一个最坏情况分析。但对大多数公司来说,它最终不会成为最坏情况。
我想说,如果他们的交易价格如此之高,他们刚刚经历了收入和营业利润的巨大增长,那么当这种情况消失时,对系统的这种冲击将不可挽回地损害公司,当事情放缓时,股票补偿、员工问题以及客户感知问题都会出现。但这在视频中。是的,这没什么新鲜的。
他们从多年的糟糕情绪中崛起,并拥有令人难以置信的创新,这已经发生过很多次。他们可能是最适合处理这种情况的公司,或者拥有最佳处理能力的公司。
哦,我真的很喜欢这个短语。你已经达到了你的训练模型语言水平。
你应该看到...
推广者的数量。哦,好吧。
仅列出最坏情况分析。首先,詹森对加速计算的看法是正确的。目前大部分工作负载都不是加速的。它们绑定到CPU。它们可以被加速。
这将从今天加速工作负载的5%或10%转变为未来50%以上。并且在并行处理中发生了更多的计算。这主要归功于Nvidia。
哦,我有一些新的想法想补充。我认为很多人看到这些,会想,是的,我明白了。但我认为这个论点在整个虚拟世界中实际上是有很多优点的。
在这一集中我们讨论的所有内容中,我认为詹森和英伟达并没有说传统的计算会消失或变得更小。我认为他说的意思是,人工智能计算将被添加到所有事物中,并且为此所需的计算量将远远超过通用计算机的计算量。
所以,这并不是说人们会停止运行服务器或您使用的任何产品会停止使用它们各自的接口。通用人工智能将被添加到所有这些事物中。并且会涌现出使用案例,这些案例也将使用传统的基于通用CPU的计算。但是,为了让这些事物变得神奇,所投入的工作负载将变得更大。
是的,关于软件开发的总体声明。除非您拥有一个框架来执行它,否则编写并行代码非常困难,您甚至编写多线程代码都很困难。
就像如果有人记得ACS大学课程,他们曾经遇到过竞争条件,或者他们需要编写一些这些是调试最困难的事情。我认为在加速方式下可能发生的事情不仅仅是因为开发起来很困难。因此,如果我们生活在一个未来,英伟达重新定义了计算机的概念,从冯·诺依曼架构转变为他们开发的流处理器架构,并且他们拥有完整的堆栈,使应用程序和移动现有应用程序一样容易,尤其是在所有硬件都购买并支付之后。并且在数据中心中,可能有很多工作负载实际上在加速方面是有意义的,如果这样做足够容易。
是的,这很好。你的观点是,有很多延迟和可加速的计算,但尚未被加速。
就像这些工作负载并不昂贵,我不会雇用工程师来设计系统。所以没关系。它如何运作?有多少这样的情况?
所以,第一点,约翰逊是对的,关于加速计算。第二点,詹森是对的,关于人工智能。结合加速计算,这将极大地改变数据中心对人工智能硬件的支出。
正如我们提到的,据传OpenAI的ChatGPT的经常性收入超过十亿美元。所以我想,我们称之为30亿美元,因为这是我听到的最可靠的估计。也许这是明年的预测。
但是,他们并非唯一一家,谷歌也有Bard,我发现它在为这期节目做准备时非常有用,它并没有直接取代我,而是通过这样做保留了我作为谷歌搜索客户。即使在今天,也有很多真正的经济价值,虽然远不及估值中所包含的价值。但我认为,最基本的情况是,一切都需要顺利进行。
视频,但球赛的情况表明,英伟达的业务进展顺利。第三,英伟达的进展速度非常快。无论发展如何,很难相信他们不会找到一种方法来很好地把握住它。
这只是文化差异。第四点是你之前提到的,数据中心中有万亿美元的投资,每年还有2500亿美元用于更新和扩展容量,英伟达可以占据其中相当大的份额。我认为今天,他们的收入是多少?
在当前季度,大约是300亿美元,然后是50多亿美元。
是的。所以,目前,他们占据了当前数据中心支出的20%。可以想象,这可能会更高。
等等,这包括游戏收入大约是40%,因为数据收入是10,40和别的东西。
对吗?所以是41%。是的。但是,如果加速计算和生成人工智能的信念成真,可以想象它会再次增长,他们会增加2500亿美元的数字,并占据更大的份额。
更大的百分比。
是的,检查这些数学的一种有趣方法是查看生态系统中其他人的报告。在他们最近的收益报告中,TSMC表示人工智能目前仅占其收入的6%,但所有迹象都表明他们预计未来五年人工智能收入将每年增长50%。哇。
所以我们试图从客户工作负载的角度来看待这个问题,并问,它在那边有用吗?但是,如果你从英伟达供应商的预测的另一面来看待这个问题,他们必须投入资金,建立新的方式来促进这些事情,以及芯片中的所有其他事情。因此,TSMC出错的成本很高。这是我离开你之前最后一个想法。
你说你还有……
还有一件事?是的,英伟达不是英特尔。我认为这是你帮助我意识到的最重要的事情,它也不是思科。
是的,我们在上一集中做出的比较是错误的。他们更像微软。他们控制着整个软件堆栈,并且可以同时与开发人员和客户生态系统建立关系。我的意思是,它甚至可能比微软更好,因为他们制造……
所有硬件,也许甚至比IBM更好。
对吧?想象一下,如果IBM运营着当今的巨型计算市场,而当时市场规模很小。
对吧?我的意思是,我当时认为个人电脑浪潮会颠覆IBM,而今天的边缘计算、设备空间计算,IBM主导着企业级大型机计算周期。同样,如果你相信詹森说的所有内容以及他在过去五年中如何领导公司,我们正在回到一个集中式数据中心,一个现代版的大型机主导的竞争。我称之为……
是的,我怀疑很多推理将在边缘完成。想想我们口袋里,但目前尚未充分利用的计算量。手机上将完成很多机器学习,这些手机将调用基于云的模型来处理困难的部分。
不,不,我不认为训练很快会在边缘发生。
不,不,我当然同意这一点,对吧?就像我们关于TSMC的节目一样,我想结束并让你思考,大卫,为了在英伟达中竞争需要什么,因为我对TSMC节目的最大收获是,哇,你必须相信政府将投入数十亿美元,并雇佣大量人员。
我当时想,英伟达的等价物是什么?所以,为了竞争,你需要做这些事情。假设你可以设计出同样好的GPU芯片,AMD、谷歌和亚马逊可能正在做。
当然,他们需要建立芯片到芯片网络功能,这只有少数人拥有。当然,他们还需要与硬件组装商(如Foxconn)建立关系,才能将这些芯片整合到服务器中,例如DGX。即使你做到了所有这些,你还需要建立像梅林的X(在Finigan中市场上最好的)一样好的服务器到服务器和回传网络功能,基本上没有人拥有。即使你做到了所有这些,你还需要说服所有客户购买你的产品,这意味着我们需要做得更好或更便宜,或者两者兼而有之,而不仅仅是与英伟达一样好。
并且在很大程度上优于这个品牌。你很快不会因为购买英伟达产品而被解雇,如果你想说服CIO,你必须在这方面比英伟达好得多。
是的。即使你获得了客户需求,你还需要与TSMC签订合同,以获得他们最新尖端光刻和封装技术(如2.5D异质集成)的制造能力,当然,这已经没有更多了。所以,你知道,祝你好运。
即使你弄清楚了如何做到这一点,你还需要构建与CUDA一样好或更好的软件。当然,这需要花费数千人年的时间,这当然不仅会花费数十亿美元,还会花费大量时间。即使你进行了所有这些投资并完成了所有这些工作,你当然还需要说服开发人员开始使用你的产品而不是CUDA。
当然,英伟达也不会停滞不前。所以,你必须在极短的时间内完成所有这些工作,才能赶上他们并超越他们可能开发的任何其他功能。如果你开始这项工作,我认为这里的底线是几乎不可能直接与他们竞争。如果未来有人要取代英伟达在人工智能加速计算中的地位,那将来自他们没有预料到的某个未知的侧翼攻击,或者未来可能根本不是人工智能加速计算,这似乎不太可能。
是的,这么说来,我认为我们可以得出的结论是,马克·安德森是对的。我们谈论的是哪一年?
是2015年还是什么?
是的,大约是2010年代。
他们本应该将所有筹集到的资金都投入到英伟达的股票价格中,每天都投入。
是的,因为他们看到所有这些初创公司都在进行深度学习、机器学习(当时的人工智能)并都建立在英伟达之上。他们本应该说,不,谢谢,告诉他们。但是,在英伟达,马克再次证明了坚持不懈的领导力。
这就是它,各位听众。我承认,本集概括了很多细节,特别是对于技术听众和金融人士来说。我们的目标是让这期节目更像是一期关于英伟达第三部分的宏观视角节目,而不是关于他们上一季度表现如何以及对未来三个季度有何影响的节目。希望这期节目能持续一段时间,而不仅仅是关于英伟达的当前评论。非常感谢你们与我们一起踏上这段旅程。
但是,正如我们整个节目中所强调的那样,我们也要感谢很多帮助我们的人,包括那些有更多事情要做的人。
所以我们非常感激。首先,是英伟达的伊恩·巴克,他领导着数据中心工作,并且是CUDA的早期团队成员之一。非常感谢他与我们交谈,为这次节目做准备。
绝对的,还要感谢节目中的朋友,来自ABC数据的杰里米,他为我们准备了PDF,完全没有被要求,就像他主动为我们提供了很多关于这个私人博客文章背后技术细节的信息。
是的,私人博客文章。我们的Acquired社区真是太棒了,你们继续让我们大吃一惊。谢谢。
朱利安。Hugging Face的城市,或者说从人工智能到Louis的OctoML。当然,还有我们来自NZS Capital的朋友,感谢他们帮助我们进行研究。
我确实。嗨,卡车外。什么是五档?卡车外。
要买什么?我和妻子一直在看《外星人》。
哦,哇。是的。珍妮弗·加纳,是的,我从未想过……
当我出来的时候。这就像2000年代初的垃圾食品,当你一天结束时还有额外的一个小时。然后躺在沙发上……
然后我再也没有一天多一个小时了。我有一个两岁的孩子。但我真的很感激,现在他16岁,即将上大学。
继续玩游戏。
这是真的。但我只是在关注图形方面。
所以,我对《联盟》的评价是,它有点夸张。他们经常重复自己。我的意思是,观察现在和那时电视节目变化的程度很奇怪,因为他们今天制作的节目非常相似,但他们更微妙。
他们更黑暗。他们留下了更多让人想象的空间。在2000年代初期,一切都是如此的直白和显而易见。我们已经说了三次,我很高兴这部电影没有左转,但它值得一看。有时你必须想象它有不同的配乐,因为每集都有类似于矩阵的歌曲,从头到尾都是重复的。
是的,没错。这就像电视版的《黑客帝国》。
是的,但它很棒。我没有很多……
时间来观看它。我的朋友们也分享了他们生活中的事情,最近我也错过了并发现了。我们刚刚看了第一部完整的迪士尼电影。
有一个重要的……
里程碑。她真的非常喜欢它。我认为我们选择了一个很棒的电影,莫阿娜,我们之前都没有看过。在事后读了一些关于它的内容后,你知道,最近几年,皮克斯的电影有点下滑,就像一个打击。我的意思是,他们仍然有不错的作品,但……
它不再像以前那样保证每次都能大获成功。
是的。莫阿娜是在《缠结》和一些其他迪士尼动画电影之后,在皮克斯电影被收购之后出现的。迪士尼制作了它,就像在所有方面都全力以赴。我们和我们的兄弟姐妹一起看了这部电影,他们没有孩子,他们三十多岁,住在服务行业。他们都喜欢它,我们的女儿也喜欢它。强烈推荐莫阿娜,无论你处于什么阶段。
添加到我的清单中……
并得到了石头。
你怎么能抱怨呢?各位听众,如果您想在每次我们发布新剧集时收到通知,并且想确保您不会错过任何内容,并且想获得关于下一集的提示,或者想了解我们之前剧集的后续内容(如果我们从听众那里学到了一些东西),我们会专门通过电子邮件发送这些信息。
获取我们的电子邮件,有趣。我想谈谈Slack。
人们在Slack上谈论这期节目的提示。我们读了这个小预告片。我当时想,伙计们,他将知道……
这到底是什么。没有人知道。我震惊了。
是的,最终有人知道了,但花了几天时间。
是的,我们有帽子。你应该买它,这不是我们赚很多利润的东西。我们只是很高兴更多的人能戴上ACQ帽子。所以,加入这个运动,告诉你的朋友们。
这不是我们超级播客,但你知道的。
这个播客是……
超级播客。
嗯,如果你加入 Acquired DLP,你可以更靠近厨房,帮助我们每季度挑选一期节目,并每月左右进行一次 Zoom 通话。加入 Acquired,访问 m/LPL。在任何播客播放器中查看 ACQ2 以获取更多 Acquired 内容,并在 Slack Acquired 数据 m/slack 听众中讨论此事。下次见。
下次见。轻松点,轻松点,你,你得到了……