Edge computing brings computation and data storage closer to the source of data generation, reducing latency compared to traditional cloud computing, which centralizes these processes.
Edge computing reduces latency by placing compute and data closer to where it is needed, enabling real-time decision-making and reducing the need for data to travel long distances to and from the cloud.
Industries benefiting from edge computing include manufacturing, connected cars, retail, and live sporting events, where real-time data processing and low latency are critical.
For applications involving humans, the ideal latency is around 160 to 200 milliseconds, as the human brain tends to switch context after this threshold.
Migrating applications to the edge requires rethinking how they are built to handle intermittent connectivity, limited compute resources, and offline scenarios, which are not issues in the cloud.
AI at the edge enables real-time inference, prompt augmentation using real-time data, and multi-model agentic workflows, which are critical for applications like self-driving cars and manufacturing anomaly detection.
Practical examples include personal AI assistants trained on user data, automating DevOps workflows, and AI-based search engines, all of which are currently in use.
Advancements in hardware, such as NVIDIA's new chips, synthetic data generation, and virtual reality environments for robot training, are accelerating the integration of AI with robotics.
The most exciting use cases include self-driving cars, where real-time decision-making is critical, and manufacturing, where edge computing enables real-time anomaly detection and autonomous behavior.
欢迎来到DataFramed。我是Richie。过去十年,人们大力推动云计算。
它很棒,因为它使组织不必担心管理自己的基础设施。但有时它并非最佳选择。如果您需要计算靠近数据生成的地方(自动驾驶汽车就是一个明显的例子),那么您需要一个替代方案。这就是边缘计算。今天,我们将探讨边缘计算的用例,何时使用边缘计算、云计算甚至本地计算,以及如何在您的业务中使用边缘计算。
除了基础设施讨论之外,我还想了解边缘计算如何影响实时数据分析,并了解边缘 AI 的意义。我邀请了两位来自Cynadia的嘉宾,Cynadia是一家分布式计算平台公司。Cynadia是安全消息传递的先驱,有助于将安全性和协作引入物联网、边缘和云计算系统。Derek Collison是首席执行官兼创始人。
他从事分布式系统和云计算工作30年。他曾担任VMware的首席技术官,在那里他设计和架构了Cloud Foundry;他曾担任Google的技术总监,在那里他共同创立了Ajax APIs小组,并为流行的JavaScript库创建了最大的CDN;他还曾担任TIBCO的高级副总裁。他还是一位连续创业者,此前曾创立安全平台AppSara,后被爱立信收购。
接下来是Justina Back。她是营销副总裁,帮助客户了解如何使用 AI 和边缘计算。她是一位经验丰富的营销主管,拥有15年的数据和技术营销经验。此前,Justina曾担任Google的数据和AI云产品营销主管,以及Firebase移动应用程序平台的产品战略和营销主管。
她还是哈佛商业评论顾问委员会成员。所以让我们把这一集带到边缘。嗨,Derek和Justina。欢迎来到节目。谢谢Rishi邀请我们。谢谢。首先,您能向我介绍一下边缘计算和更传统的计算之间的区别吗?
嗯,我认为这是一个很好的问题。我认为Xenadia今天存在的原因是,对于那些在场的人来说,我们经历了相当大的转变,即如何在我们自己的数据中心或本地进行操作,转向云计算。
Synadia相信,向边缘计算的转变将同样重要,甚至更大,并且发生的速度将比向云计算的转变快得多。大多数人都意识到,无论我们在一开始是否知道,现在构建(例如)云原生应用程序的规则已经大不相同了。我们相信,同样的转变也将发生在边缘原生应用程序和系统上。
好的,所以听起来下一件大事是从云计算转向边缘计算。但是,您能解释一下它的好处吗?为什么要使用边缘计算?好吧,我的意思是,Sanadia的各位,尤其是Justina,都知道我这一点。我试图简化事情,以便更好地理解它们。但令人难以置信的是,我们的北极星之一是假设
人们将尝试减少访问分布式技术的延迟,无论是服务还是数据。而这始终如此。因此,我们从数据中心转向云,然后是多租户云。
CDN提供商,你知道,我们所说的远端边缘的概念,也就是最接近云提供商的,他们正努力维持现状。我称之为他们的“大片时刻”。但是远端边缘有点像Akamai、Fastly、CloudPlayer、Netlify,当然还有
Purcell和Deno部署的世界。但是你开始看到,我认为我们开始看到这一点是在我们开始Synadia的时候,这是我们的一个大赌注,那就是它不会就此停止。他们会继续将其推入他们的车辆、制造系统、工厂、配送中心、医疗设备等等。同样,这只是减少访问数据或服务的延迟的主要驱动力。对我们来说,这两种情况都是如此。
好的,所以看起来主要目标是减少延迟。因此,您的计算发生在需要使用的地方附近。但是,公司也不希望像以前那样费力地管理自己的基础设施,我认为这是云计算最初的好处。所以这是一种两全其美的局面吗?
嗯,这绝对既包括计算,也包括数据。例如,如果您在本地运行计算,例如在车辆内部,但它仍然需要来回传输才能访问数据,您可以想象一个世界,将数据也移近将非常有意义。好的,计算和数据结合在一起,这很有意义。也许我们会尝试使它更具体一些,讨论一下谁实际上正在使用边缘计算。Justina,您能向我介绍一些用例吗?
嗯,边缘计算能够实现实时决策。因此,它真正释放了隐藏在数据中的价值。每个依赖于对业务状况的实时洞察的行业和用例都将受益于边缘计算。
因此,我们今天看到的一些例子可能是工业制造,您有时会有数百个传感器监控装配线上的不同机器,监控振动水平、温度。如果您可以在数据生成后立即处理这些数据,并且可以识别异常(例如,一台机器过热),那么您可以立即采取行动,这可以为您节省资金,因为您可以让装配线继续运行。
它可以为您节省收入,因为您可以继续生产工厂生产的任何东西,无论是车辆还是其他东西。它还可以提高效率。当您必须将此数据发送到云时,它将效率低下,因为它会在您可以根据此数据采取行动的时间上引入延迟。这将非常昂贵,因为这些数据将消耗大量带宽。
在某些情况下,数据甚至不应该离开场所,因为跨区域传输会使您违反合规性法规。为了更具体地补充Justina所说的话,就垂直行业而言,对吧?制造业,我们真的相信制造业现在正在经历复兴。不仅是减少延迟,还有自主行为、东西向、异常检测之类的东西,意思是,嘿,我们工厂的这部分看起来很奇怪,我们在全球有80个这样的工厂。你的工厂看起来也奇怪吗?
车辆成为一个碰巧有轮子的技术平台的整个概念,因此联网汽车是一个重要的方面。我们还看到它在所谓的实体店体验的复兴中。因此,许多人转向纯粹的数字在线,显然是亚马逊,但沃尔玛也紧随其后。我认为……
正如我们都进入COVID作为一种强制性功能一样,我们可以更多地讨论为什么我们认为是这样。
但在走出COVID之后,我们如何重新定义某人在商店中的体验?您可以想象,我们需要非常快速地访问大量信息。正如Justina所说,如果由于某种原因,我们商店到云的蜂窝连接中断,或者我们的星链或其他任何东西中断,我们希望商店具有一定的自主行为。最后一个例子,令人难以置信的是,
我们看到人们希望如何增强球迷体验方面出现了巨大的爆炸式增长。想想现场体育赛事,例如赛车之类的赛事,他们希望让球迷更多地沉浸在车手所经历的事情中,从他们的车上获得的数据,从其他车上获得的数据,以及赛道。
您可以想象一个世界,再次回到Justina的观点,如果我们要来回传输数据以获取数据到云,然后返回云以获取数据,对吧,要提出问题或增强手机或其他任何东西上的某些体验,人们会想要消除这一点。他们发现的是,您不能仅仅将应用程序从云端迁移到边缘。正如我们之前在播客中谈到的那样,当我们从服务器机房到数据中心再到云端时,这是一个截然不同的世界。
显然,我非常喜欢Justina关于制造业的例子。我当然可以理解为什么您不想等到将东西塞进云中,等待一些批处理过程运行,然后第二天才能得到答案。您想立即知道问题所在。Derek,补充你的一点,似乎在你想要边缘计算的大多数例子中,基本上都是你在运行传感器的任何地方。
这准确吗?我认为更广泛地说,我会让Justina也参与进来,边缘发生了几件事,对吧?首先,大多数与您的客户或合作伙伴互动的数据都发生在边缘。因此,您可以很容易地推断,将其移动到云中只是为了立即将其带回是没有意义的。话虽如此,许多这些 AI 推理模型仍在云中进行训练,对吧?
我认为这种情况在相当长的一段时间内都不会改变。那么,您是否希望应用程序必须担心蜂窝网络的状况才能将数据传输到那里?或者他们能否只是说,嘿,一些文本,这是数据,确保将其用于训练。顺便说一句,每当您更新模型时,请确保我得到它
然后是模型需要的任何东西。例如,提示增强、使用多个模型的代理工作流程,确保我知道这些东西在哪里,以一种与位置无关的方式,我们可以讨论并尽可能快地减少延迟。再说一次,你甚至看到了一些更新的模型。我知道我们正在稍微深入到边缘的 AI,但是
但是,人们总是会密切关注这需要多长时间?我获得第一个字节或第一个响应的延迟是多少?或者在 AI 中,我所说的第一个有意义的上下文,啊哈,它正在回答我的问题。所以看起来延迟是主要的驱动力。那么,您可以等待多长时间才能得到答案?也许您可以举一些例子来说明不同用例的适当延迟是多少?
好吧,你知道,这真的很有趣。因此,你知道,早在2000年代初期,我在Google工作过一段时间。我在Google工作,Google的消费者是个人。
而且在大多数情况下,人脑在160到200毫秒之间切换上下文,具体取决于大脑振荡的速度,对吧?因此,Google有一个非常严格的规定,一旦收到请求(例如Google搜索查询),它必须在200毫秒内返回,否则您将无法启动服务。
因此,每当您与人打交道时,大多数人都会围绕这些数字进行概括。我们必须进行多少处理才能获得某些东西,以便这个人(例如我)不会切换上下文并切换到其他东西?
现在,当您转向其他类型的机器和事物时,无论是制造业还是联网汽车,您可以选择延迟需要小得多的例子。我应该能够换车道吗?你不会说,让我去问云中的LLM我是否应该这样做。因此,您尝试执行的操作在语义上是相关的。人类大约是160到200,但我们开始看到
制造业中的一些流程,再次,就像联网汽车一样,这些流程变得非常非常低。您可以想象,再次,任何实际上正在物理控制工厂或汽车实际运行情况的东西。它们对延迟以及它们可以响应的速度有非常非常严格的容差,一直到硬件和操作系统等。
好的,这真的很有趣,人们在0.2秒后会感到厌倦。他们会继续切换并去做其他事情。但是,我当然可以理解,在自动驾驶汽车的背景下,这甚至太慢了。好的,让我们尝试弄清楚我们如何做到这一点。因此,您有您的云应用程序,假设您的首席执行官说,让我们将其迁移到边缘。你做什么?你从哪里开始?
首先,这完全取决于您的目的地。因为如果您是从云端到边缘,而您的边缘是现代工业制造装配线,您将拥有数百个传感器,您将拥有相当稳定的连接。所以这几乎就像边缘的一个小型数据中心。现在,当您转到远程油厂时,情况将大相径庭。
而且,你知道,数据就是新的石油。因此,考虑到这一点以及远程钻井平台,那里的条件比现代工厂要恶劣得多,因为连接可能是间歇性的。延迟肯定更高。计算甚至可能受到限制。
因此,在云中蓬勃发展的应用程序(所有这些资源都是无限的并且始终在线)肯定不会在边缘运行良好。因此,我们需要从根本上重新思考我们如何构建能够在边缘最恶劣条件下蓬勃发展的应用程序。这些应用程序必须能够通过设计在离线场景中运行,因为连接可能会中断,而您仍然必须保存数据
分析数据并将其用于关键决策,以保持远程所有操作的运行并确保现场人员的安全。但与此同时,即使连接中断,应用程序也必须保留数据,并且如果我们没有连接到云,云中的数据库将无法以任何方式帮助我们。应用程序必须具有弹性。它必须能够自我修复,处理这些条件,
因此,我们在Synadia对实现下一代应用程序的愿景确实是游牧应用程序。那些真正能够在最恶劣条件下蓬勃发展的应用程序。它们没有外部依赖项。它们为了运行而需要的一切都包含在一个小于20兆字节的小型二进制文件中。它们完全具有弹性,并且完全准备好在线下场景中运行。
对Justina的出色回应进行补充。我认为Synadia在一开始就非常不被理解的原因之一是,我们(即Synadia)决定以一种非常不同的方式来解决这个问题。
传统上,您只是说,好的,我有一个应用程序。我如何将其迁移到边缘?这意味着这是您首先关注的事情。顺便说一句,在我之前的职业生涯中,我以完全相同的方式设计系统。首先关注工作负载。您如何将其运行到其他地方?然后您会发现,哦,它需要数据。然后它需要一个网络来连接到数据。然后你需要保护它。因此,您会看到这种工作负载、数据、网络安全类型的管道。因此,我过去设计的东西,例如平台即服务,以及Kubernetes、OpenStack,都是这样做的。
我们所做的是说,为了达到应用程序能够真正运行在任何区域、任何云提供商,一直到(例如)联网汽车之类的东西的最终点。我们首先从连接层开始。所以我们说,如果这个连接层是智能的,这意味着一切都是与位置无关的,我不需要知道你在哪里。我可以安全地访问你。
因为网络在最根本的支柱上是安全的。然后,基于智能连接移动数据。事物可以安全地移动和波动,并且与位置无关。然后,最后,我们关心工作负载。因此,在Seneja生命周期的开始,我们非常不被理解,因为我们采取了几乎完全相反的颠倒路径来解决这个问题。但为了达到Justina关于真正游牧应用程序的观点,您不能从应用程序开始。
您必须首先从连接、网络、安全、数据层开始。此外,还有很多事情使在当前架构的云中部署事物变得非常容易,因为它们都在那里。它们就像点击一下鼠标一样。突然之间,当您身处零售店、咖啡馆或制造工厂时,就会发现,哦,我们没有一键式负载均衡器、GSLB和服务发现。接下来,您不是……
只是复制您的游牧应用程序或您想要成为游牧的应用程序,这可能是一个非常简单的应用程序。就像,哦,等等。当我们在云中运行它时,我们有安全、网络、VPC、数据服务、负载均衡器、API 网关,我们拥有所有这些东西来解决(至少在我们看来)
当前架构的根本局限性,这主要围绕连接支柱,这意味着当前技术水平的一切都是与位置相关的。我必须知道你在哪里,你的IP,令人难以置信的是。人们可能会争辩说,哦,不,我有一个负载均衡器的IP。在我看来,这是一个不自然的行为,是为了规避我们今天所做的一切都是与位置相关的以及一对一请求回复的基本限制。
我们开始看到需要更多架构的架构,他们不想等待六个月、一年甚至更长时间,对吧,来……
不仅是Richie,还有Derek和Justina作为平台工程中的配角,试图在云中重新创建一切。因此,我们为我们的客户和生态系统中的合作伙伴所做的是,我们大大加快了价值实现时间。我们还大大降低了复杂性。您可以想象一个世界,如果云提供商正在运行所有这些服务,您就不必担心它们。你知道它们正在运行,而且一切正常。
但是现在突然之间,在车辆内部或工厂内部,就像,哦,我们是否想复制云提供商所做的一切?我的意思是,这是一个巨大的、巨大的成本。你可以走这条路,或者……
Synadia所做的是,我们从头开始重新构建问题,并尝试以不同的方式思考它可能是什么样子,这样我们就无需花费六到十二个月的时间来尝试重新创建云中的一切。顺便说一句,我喜欢云,别误会我的意思。我认为它是新的大型机。我希望观众(我相信他们会的),因为我相信他们非常聪明。你知道,云提供商有动力成为加利福尼亚酒店。你可以入住,但他们不希望你退房。
我相信。好的。所以是的,听起来创建这些东西仍然需要相当多的努力。因此,我想您组织内的几个不同团队将参与其中。因此,如果您尝试创建您的第一个边缘应用程序,哪些团队或角色将参与其中?是的,继续。Justina,你已经有一段时间没说话了。向我们介绍一下。
嗯,构建新应用程序总是从应用程序需要推动的业务成果开始。在我Google期间,当我亲眼目睹生成式应用程序革命时,我发现取得最大成功的客户是那些专注于他们想要的非常具体的业务成果、他们想要端到端优化的一个业务流程的客户,而不是试图包打天下,同时尝试太多事情。所以一旦你……
有了这个最终目标,你就会组建一个能够帮助你实现这个目标的团队。因此,很明显,你将拥有一位解决方案架构师,他将负责设计应用程序,并研究一些替代方案,这些方案是我们一直用来构建应用程序的,并考虑诸如 Cinedia Edge Native Tech Stack 之类的方法,该方法允许你构建能够在任何情况下都能正常运行的应用程序,即使是在边缘最恶劣的条件下,你也会遇到间歇性通信
连接性、高延迟、带宽可能稀缺,有时你甚至可能计算能力有限。因此,解决方案架构师绝对是需要的,但你的数据团队也是需要的,因为应用程序需要数据。正如 Derek 所说,你并不总是能够访问云中强大的数据库。你可能需要能够在离线场景中运行,但仍然能够写入数据并最终确保数据一致性。
我认为我们现在正在看到,并且将来会看到更多的是边缘人工智能的应用。这个应用程序的一个革命性的功能是,你可以开始将生成的数据分类为高价值数据和低价值数据,而高价值数据对于你有效地采取行动至关重要。
实时地,因为它包含了将帮助你实现业务成果的业务洞察力。例如,如果你的业务成果是为你的制造工厂开发一个监控应用程序,
确保所有机器协同工作。如果检测到异常,则采取行动。也许你甚至可以创建一个更高级版本的人工智能,其中你可以更改多个功能。首先,你检测问题,然后对其进行分类。它是紧急情况还是我正在监控的情况?你对其进行分类。然后,如果紧急,你开始修复它。
因此,你还需要能够在边缘进行推理的机器学习专家,然后对数据进行分类,使用一些数据,也许发送回云端。因此,用刚刚捕获的这些有趣的数据进一步训练模型。或者你可能想在边缘训练小型人工智能模型。
但我认为我们将看到整个解决方案架构方面的更多合作,着眼于构建气动应用程序的新方法。你将看到机器学习专家和数据团队之间的合作,因为没有数据就没有人工智能。
好的,我喜欢这个。因此,我们显然有软件开发和工程,因为你正在构建某种应用程序。你拥有需要数据的数据人员。我喜欢你正在进行异常检测的用例,因此你将需要一些数据科学家或机器学习专家。我想,那些没有被提及的团队,没有提到商业团队。这些事情需要商业团队参与吗?
我认为 Justina 以商业案例、商业团队以及我们试图实现的目标为首。更简洁地说,你的观点是,它不太关注在那里运行的应用程序本身,而更多地关注它需要访问什么来推动业务成果。例如,如果我的应用程序需要访问三个其他微服务,而它们需要访问数据存储,而所有这些都是远程的,
商业团队可能会说,我无法等待汽车上的显示屏在你触摸手机时更新,而更新需要五秒钟。这是一种糟糕的体验。这对我们的用户来说是一个糟糕的业务成果。然后,这就会逐渐减少。现在,突然之间,它不再是关于应用程序本身了。它更多的是关于平台工程、数据工程,那么,如果我们需要将这些服务和数据也移动到车辆中呢?这就是许多客户在达到交叉点时与我们联系的原因。
好的,是的,这当然很有道理。你让商业人员参与需求,他们可能不太关心一些技术细节。现在,你们两位都提到了边缘人工智能的概念。因此,我想知道,这方面的一些例子是什么?我们是在谈论更传统或预测性的人工智能,还是其他生成式人工智能用例?例如,你想要边缘上的聊天机器人吗?向我详细解释一下。我认为你将会看到的是
推理,无论它在哪里运行,在我看来,它是一种独立的生态系统。它有两个不同的因素。同样,无论它在哪里运行。一个是提示增强,我相信观众对此比较熟悉。我们实际上可以手动完成。你可能会听到诸如 RAG 和 RAG++ 之类的东西。它基本上是在说,你给我的原始提示,我需要大量访问实时数据源来增强它。
因此,我们再次处于这种状态,嘿,如果所有这些东西都不在我们真正需要的地方,我们是否愿意支付延迟?第二个,它才刚刚开始实现,但我认为对于你在这里谈到的用例非常适用,大多数人称之为遗传系统。但我实际上称之为可能是 DAG,即通过多个模型的定向无环图遍历。所以可能是
我会说话。我认为语音交互,尤其是在某些情况下,将占据主导地位。因此,LLM 之类的东西实际上可能是首先说,好的,我明白了。我明白了你想做什么。这是计划。顺便说一句,你需要访问所有这些不同的数据源和模型才能使这项工作发挥作用。我认为 Synadia 和我们的合作伙伴可以从中受益,我们今天有很多 AI 客户,是
你不需要知道它们在哪里,但你需要知道它是安全的,并且你确实在与你想要与之对话的模型对话。但这可能是 LLM 和生成模型、预测模型以及在车辆或机器人制造车间运行的车载视觉模型的混合模型。因此,你可以看到这个生态系统不断发展。再次,
更多地访问更多数据,更多地对这些数据进行延迟敏感的访问,然后遍历多个模型,而你不知道它们在哪里运行。在我看来,你甚至可以将这些模型从云端移动到基站,再到工厂或车辆中。好的,是的,两个非常酷的例子。我喜欢使用实时数据源来增强你的提示的想法。这似乎是一个很酷的边缘用例。
我认为关于这一点,快速地强调一下我们围绕连接层讨论的一些事情。想象一下一个世界,其中存在推理,它是一项非常大的服务。假设我们从每秒 10 个请求增加到一百万个。我编造了一个数字,对吧?显然,如果你总是与大型 LLM 交谈,你将面临非常大的账单。但更重要的是,如果你正在进行提示增强,并且所有内容都是请求回复点对点,
你访问的每个数据层现在也需要随着你的推理层进行扩展。因此,当你看到 RAG 时,RAG 是检索。我询问并检索值。我们、我们的客户和合作伙伴讨论的是这一点。
嘿,假设 Richie 是主要服务,Richie 现在每秒运行一百万次。Justina 和我是数据,你知道,用于提示增强的实时数据。而不是你每秒必须向 Justina 和我询问一百万次,我的意思是,我们必须与你的扩展相称地进行扩展。
在我们这个领域,我们既有推送也有拉取。推送只是意味着你可以说,嘿,Derek,任何时候,假设这个传感器的温度发生变化,只要让我知道。我知道它可能只会在 30 秒内变化几次。但现在突然之间,我不必扩展到每秒一百万次。我只是知道
我有一个变化,在我的世界里,我只是将其作为一个事件发送出去,任何对该事件感兴趣的人,这意味着你们一万人,对吧,正在运行这每秒一百万个请求,也许 Justine 正在用它做审计日志或其他事情。
在我们这个领域,这非常自然且非常简单。因此,即使在提示增强和访问实时数据方面,当我们谈论实时数据时,是的,你可以请求它。你知道,你可以进行请求响应。但我认为,像 Sanadia 这样的系统的亮点是,你可以从架构上将其移动到推送模型,并说,嘿,你们,每当发生变化时,只要让我知道。然后我会保存一段时间的数据,然后重复使用它。
好的,所以甚至不需要询问数据,它只是被赋予你,并说,这里有一些有趣的东西完全是自动的。好的,我喜欢这个。这对于人类来说几乎不需要做任何工作。是的,一切都在没有你干预的情况下发生。好的,那么你有没有从使用代理的组织那里获得任何成功案例?你提到这是你的第二个用例。每个人都在谈论代理,但现实世界的例子很难找到。那么你有没有在实践中看到这种方法有效?
哦,是的。我们有很多创新的 AI 初创公司作为我们的客户,他们构建了各种有趣的用例。例如,我们有一家公司正在构建基于你自己的数据进行训练的个人 AI 助理,它们可以成为有用的助理,帮助你发现并回答一些关于你,甚至可能是基于你过去关于你偏好的数据所做的职业选择方面的问题。我们的客户有
自动化 DevOps 工作流程并帮助 DevOps 团队提高生产力,专注于他们最擅长的事情,方法是自动化一些平凡和重复的任务。然后,我们还有正在构建基于 AI 的搜索引擎的组织。因此,有一系列非常实用的用例,提供了很多价值,而且它们并非遥远的未来。它们现在正在发生。
正如 Justina 所说,但也要回应这一点,Richie,你所说的仍然处于非常早期的阶段。因此,我们知道,或者至少我坚信,到 2025 年,你将看到这些多模式、多模式(对不起),代理工作流程真正爆发。我认为……
然后是 2025 年下半年,我认为我们将看到物理 AI 的爆发。因此,当这些代理能够真正开始影响物理环境时,老实说,几年前,我认为物理 AI 组件(如机器人技术等)将非常遥远。人工智能正在做的一切,它让很多人看起来有点愚蠢,因为它在我们前进的过程中证明我们是错的。所以
我们确实看到客户开始利用我们的技术栈来简化这些工作,但这还处于非常非常早期的阶段。但到 2025 年下半年,它很快就来了。发生了什么变化使得人工智能与机器人的交互更容易?
我认为这有点像 iPhone。我的意思是,观众可能会说,什么?但 iPhone 只是所有这些技术达到顶峰的巨大完美风暴,iPhone 成为可能。所以……
你知道,有了生成式 AI,有了这些模型的强大功能,在大多数情况下,至少在我们看来,观察 AI 格局。我在大学里学习过这个。不幸的是,当我们大学毕业时,或者至少当我毕业时,我们进入了有史以来第二长的 AI 寒冬,对吧?但现在你看到的是,硬件的移动速度比我预期的要快,你知道,NVIDIA 的新芯片,你知道,它们在 H100 和 Broadwell 中(我可能搞错了这个名字),推出速度如此之快。
然后每个人都非常担心能源问题。他们说,好吧,我们只需要使用核能。我们真的认为核聚变可能在十年内实现,这将解决所有这些问题。因此,AI 领域的所有前瞻性思考者都说,让我们假设数据是丰富的。我们将弄清楚合成数据。计算将变得更快、更便宜,能源将降至零。
因此,当你开始考虑这一点时,你就会看到像 NVIDIA 的 Omniverse 这样的东西。好吧,他们创建了一个完全虚拟的现实环境来训练虚拟机器人,但完全遵循物理定律。他们真的可以将其转移到物理事物上,并且他们正在取得惊人的成果。但我认为这是一个,这再次像一个迷你 iPhone 时刻,我根本没有预料到物理 AI 会这么快到来。
但对我们来说,这很好,因为制造业是我们的一大垂直领域,对吧?我们在该领域有很多客户。所以很高兴看到这一点。如果你假设核聚变将会发生,这是一个很大的赌注。我记得在我上学的时候就听说过核聚变可能很快就会到来,那是几十年前的事了。是的,但这当然是一个非常有趣的想法。但有趣的是,你是对的。我相信这将在十年内实现。但我认为每个超大规模公司都已经签订了合同来建造核动力
数据中心、AI 数据中心等。因此,即使在短期内,你也可以,至少在纸面上,我知道这不是现实,但你可以从心理上将能源趋势降至零。但与此同时,硬件的能源需求正在以我 36 年职业生涯中见过的任何技术都更快的速度增长。所以我们现在所处的状态绝对有点疯狂。至少对我来说,这很令人兴奋。
绝对的。这些东西非常酷。好的。为了总结一下,你对边缘计算领域最兴奋的是什么?
因此,边缘人工智能最令人兴奋的用例之一绝对是自动驾驶汽车。许多传感器实时捕获大量数据。我们需要实时处理这些数据,因为这是一项关键任务。要么安全地左转进入交叉路口,要么不安全,你需要等待。如果车辆真的出了问题,你需要靠边停车并等待帮助。
你需要一个支持这项关键任务的技术栈。连接性并非理所当然。有时,这些车辆必须真正完全自主地运行。所有决策都必须在车辆上做出。因此,拥有一个支持它的技术栈对于使自动驾驶汽车成为现实至关重要。
我可以告诉你,至少从我的角度来看,Richie,我认为最重要的事情是,正如 Justina 所说,我们专注于训练和推理,但我们真正关注的是推理。我们看到它总是会在边缘。
对我们来说,至少我最兴奋的是,我们做出的所有赌注,例如,提示增强需要实时访问大量不同的数据,这些数据可以分散开来。然后是正在爆发的这种多模型代理工作流程。所有这些都需要我们大约七年前押注的技术栈。这就是我最兴奋的地方,我们翘首以盼的一些赌注正在扎根。
好的。这些东西很棒。这是一个非常令人兴奋的未来。是的,非常感谢你的时间。当然。谢谢。谢谢,Richie。