OpenAI is focusing on larger models like O1 Preview, which combines transformer models with reinforcement learning and chain of thought for advanced reasoning and coding. Anthropic, on the other hand, is refining smaller models like Haiku, which outperform larger models by optimizing performance with fewer parameters.
Anthropic's latest models, particularly Claude 3.5, are nearly as capable as OpenAI's O1 in coding and reasoning tasks, with only a 1% performance gap. Both companies' models are among the top performers on the LMSYS leaderboard, alongside Google's Gemini models.
Anthropic's 'computer use' allows models to interact with a user's computer by taking screenshots and performing tasks like copying data between spreadsheets. This feature has the potential to automate routine office tasks, but it also raises significant security concerns, such as the risk of data breaches or system damage.
The risks include data security breaches, accidental system damage, and malicious use, such as phishing attacks or unauthorized file deletions. These dangers are amplified by the unpredictability of generative AI, which can sometimes perform actions that are not intended.
NotebookLM introduces a novel user interface by generating podcasts from documents, such as meeting notes or research papers. This feature allows users to consume information in an audio format, making it easier to summarize and digest large amounts of text while multitasking, like during workouts or commutes.
2025 is expected to be the year of AI agents, with a likely increase in both generalized and specialized agents. While some agents may dominate the market with broad capabilities, others will likely focus on vertical use cases, such as automating specific industry tasks.
Boring AI focuses on automating routine, mundane tasks that are a significant part of many jobs, such as data entry or email management. By reducing human effort in these areas, it allows people to focus on more meaningful work, which is increasingly seen as a valuable application of AI.
AI-powered agents, like Anthropic's 'computer use,' could replace traditional RPA by offering a more intelligent and flexible interface for automating computer tasks. This could lead to more efficient workflows but also raises concerns about security and job displacement.
Audio-based AI can be used to monitor manufacturing lines and diagnose issues in physical objects, such as cars, by analyzing sounds. This has the potential to save companies significant costs by detecting problems early and improving maintenance processes.
欢迎收听 DataFramed 行业综述!在这个系列节目中,Adel 和 Richie 将一起讨论数据和 AI 领域的最新动态。在本期节目中,我们谈到了 OpenAI 和 Anthropic 之间日益激烈的竞争,讨论了 Claude 的新电脑使用功能,谷歌的 NotebookLM 及其对 AI 产品用户体验/用户界面的影响,以及更多内容。节目中提到的链接:Chatbot Arena 排行榜NotebookLMAnthropic 电脑使用功能介绍OpenAI o1-预览DataCamp 新手?使用 DataCamp 移动应用程序随时随地学习使用 DataCamp for business 增强您的企业,掌握世界一流的数据和 AI 技能</context> <raw_text>0 谢谢。
好,好,好。我想我们直播开始了。Richie,你好吗?生活很好。我会说我对这一集非常兴奋。像往常一样在 DataFrame 上,有一种超人克拉克·肯特的情况。你从未见过我们俩同时出现在同一个地方。但是,很高兴和你在一起。是的,也很高兴和你在一起。所以也许可以设定一下场景。我们在这里做什么?所以我们今天尝试一种新的形式。这一切都将围绕新闻、AI 和数据的最新趋势展开。这就是我们目前感兴趣的内容。
是的,确实。所以当我们制作播客时,实际上我们花费大量时间在倾听上。我们喜欢听我们 DataFrame 嘉宾的讲话,但我们并没有经常分享在这个领域让我们兴奋的事情。所以我们认为,如果我们做这一集,也许每两周一次,行业综述,我们会关注数据和 AI 领域最新的趋势,一些引起我们注意的故事。
我们会与你分享,我们对此的看法。嘿,如果你喜欢,请告诉我们。如果你不喜欢,也请告诉我们。我们很乐意听到你的反馈。是的,也许吧。Richie,我们如何开始?
当然。第一个让我感兴趣的故事是关于尖端大型语言模型的。现在,本周引起我注意的是 Anthropic 的 Haiku 模型的最新版本。为了理解不同的 Anthropic 模型,你需要了解一点诗歌知识。Haiku,一首非常短的诗,这是最小的模型。
然后他们有 Sonnet 和 Opus,指的是更长的诗歌,因此是更大的模型。现在,这是 Haiku 的最新版本。这种新的架构实际上优于更大的模型。这也在 OpenAI 朝相反方向发展之后出现,他们推出了 O1 预览版。这是一个非常大的模型,可以做强大的事情。所以这两家公司在方向上有着截然不同的感觉。
所以也许可以更详细地解释一下,你在这里提到了 Anthropic 的最新模型。首先,他们没有把它弄得很容易,因为他们使用了相同的名字,Cloud 3.5。我认为也许不是针对 Heiko,而是 Sona 和 Opus 模型。也许描述一下是什么让这些模型如此特别,并谈谈这些模型的性能状况,以及它们与 OpenAI 模型相比如何,以及它们目前的状况。
所以衡量模型好坏的一个重要方法是 LMSYS 排行榜。它根据用户对模型进行盲测并评价答案好坏来对模型进行排名。在过去的几个月里,它一直是排名前三的最佳模型之间的三方竞争。所以它包括一些 OpenAI GPT 模型,以及 Anthropic 模型。然后你还有谷歌的模型,Gemini 的版本。
对于 Anthropic 来说,他们究竟如何改变其架构并不完全清楚,但似乎是一种持续的改进,试图从更少的参数中挤出最大的性能。因此,对于那些不需要大型模型的用例来说,Haiku 似乎是最佳选择。是的,确实如此。而且它确实改变了人们对大型语言模型的看法,因为它不一定是小型语言模型,但如果优秀的模型也变得更小,那么看看它的发展将会很有趣。
我之前在节目中说过,小型大型语言模型是一个非常愚蠢的名字。我们需要一个更好的名字。比如中等语言模型之类的。小型语言模型,而不是小型大型语言模型。但我同意。而且你知道,大型语言模型行业在命名方面并没有把它弄得很容易。但你提到了发布的 OpenAI01 模型,我认为是在 9 月份。该模型实际上改变了传统 GPT 变压器的架构。它将变压器模型与……
与强化学习和思维链相结合,然后你就可以在推理和编码方面获得更好的结果。但是如果你查看排行榜,Anthropic 的 Claude 模型的最新迭代实际上非常接近 O1 模型。那么,仅仅改进当前架构与添加思维链和强化学习相比,实际上能获得多少额外的性能?
思维链是这里的关键,其思想是,如果你有一个可以分解成步骤的问题,它会自动为你完成。所以 O1 的特点在于,它只适用于这些具有多个步骤的特定问题。就我个人而言,如果我知道如何自己分解问题,我会坚持使用 GPT 或其他擅长完成单个步骤的小型模型。
只有在我不知道流程是什么的情况下,我才想使用 O1 之类的东西,因为它需要更长的响应时间,因为它会考虑如何将问题分解成步骤。所以我认为任务类型非常不同。我不知道你如何使用这两种不同的模型。
所以我通常喜欢 O1。我认为它非常好,但我并没有从事需要一直使用 O1 的涉及编码的困难用例。所以我最终实际上使用了传统的 GPT-4.0。传统的,一切都是尖端的,但传统的 GPT-4.0,因为它更快,而且是默认设置。我认为作为用户,你几乎总是会被诱导使用默认设置。所以是的。
是的,我没有很多 O1 的用例。这就是为什么我在 Twitter 上看到了一些令人难以置信的例子,人们用 O1 构建天气应用程序、仪表板、工具。所以有趣的是,即使是 Claude 3.5 模型,我认为这不是 Haiku,而是 Sonnet,在 Python 编码问题上与 O1 的差距只有 1%。所以即使从推理和编码能力的角度来看,Claude 目前与 O1 的差距并不大,而无需思维链。
本身。好的,这非常有趣。而且我确实喜欢 GPT-4.0 的想法,它已经存在了多久了,六个月还是什么?无论如何,不到一年。传统的。是的,它只是显示了事情变化的速度。100%。也许我的问题是针对你的,因为它似乎这些模型的智能正在趋于平稳。
并非指我们将停止看到智能的提升,而是我们将开始看到能力的提升,尤其是在这些系统变得自主的情况下。但我今天看到 Andreessen Howard 的 Mark Andreessen 说,如果你看看大型语言模型的变化速度以及它们从 GPT-2 到 GPT-3 到 GPT-3.5 到 GPT-4 的智能程度,尽管今天的投资更多,但每次发布周期的智能增量似乎越来越小。
所以也许对你来说,如果你认为这些模型的智能正在趋于平稳,那么什么是前沿模型之间的区别因素?哦,是的,这是一个万亿美元的问题。这就是你关于趋于平稳的观点。所以有一个经验法则,为了获得性能的线性增长,你必须要么拥有指数级增长的数据量,要么拥有指数级增长的训练计算量。我会投入更多硬件。 或者指数级增长的推理计算量。所以你必须付出指数级的成本才能获得线性的性能,这就是我们看到事情放缓的原因。现在,你可以做一些很酷的事情,比如改变架构,基本上为底层模型做一些巧妙的事情,这可能会暂时解决这个问题。
但是是的,在某种程度上,我们将看到模型能够变得多好的一些经济限制,除非我们发明出更便宜的能源。我们已经看到许多大型公司为其数据中心投资核电站。然后我认为一些公司正在押注核聚变即将到来。
是的,在区分事物方面存在一些限制。我的意思是,这真的是一个万亿美元的问题。我希望我有答案。但是是的,代理肯定是一件会产生差异的事情。另一件事将更多的是产品方面的事情。你并不一定需要大型语言模型变得更好。你需要其余的软件和整个包变得更好。所以我认为这将是围绕基础模型之外的周边行业变得越来越重要的领域。
我喜欢你最后一点,因为我认为这正是你刚才提到的万亿美元问题的答案。因为我认为对我来说,例如,使用 Claude 和 Chachapati 的关键区别在于 artifact 功能。
功能。我喜欢 Cloud 的 artifact。每个没有尝试过的人,我都强烈建议你尝试一下。本质上,artifact,它允许你做的是,它允许你直接在浏览器中,在大型语言模型中可视化或原型化应用程序、代码,无论你正在做什么。所以如果你说,这是一个表格,从中创建一个信息图表,它将使用 Rust 或 HTML 构建它,并创建一个漂亮的信息图表或交互式可视化。
所以我认为,完全同意这里所说的差异将来自产品创新。但有趣的是,关于产品创新和产品使用,大型语言模型领域似乎存在先发优势。因为我们一直在讨论……
Anthropic 和 OpenAI 本质上是独一无二的。说到其模型的智能,Meta 和谷歌仍然存在。但是 ChatGPT 与 Anthropic 相比,有多少用户?
我实际上不知道确切的市场规模数字。当然,就公司规模而言,我认为就人员而言,它可能大 20 倍。是的,它是一个明确的领导者。我认为它的市场份额仍然超过 50%。尽管这正在下降,但其他竞争对手的市场份额正在略微上升。是的,他们正在赶上,但他们肯定,例如,当我与我的父母交谈时,他们告诉我关于 Chachapiti 的事情。没有人告诉我关于 Claude 的事情,对吧?Chachapiti 似乎比任何其他大型语言模型都更深入地进入了公众意识。你认为这是为什么?
是的,我认为这是一个商业问题和营销问题,而不是技术问题。我的意思是,显然,你提到了先发优势。所以显然,它比其他任何东西都早几个月出现。他们拥有这个出色的聊天界面,而其他人没有。
所以这非常强大。是的,我想微软的联系也没有帮助,因为微软拥有一个令人惊叹的上市机器。所以他们正在通过这种方式将其带给企业。是的,毫不奇怪,Anthropic 也与 AWS 紧密合作,以跟上这个分销机器。但我认为这还关乎氛围。像,
你在 Twitter 上看到,当一个模型爆炸时,人们会很快对它感兴趣,对吧?例如,Lama 因为它是 GPT 模型的开源替代方案而获得了这种受欢迎程度的激增。但是,
但是后来,你看到随着时间的推移,发布了比 Lama 更好的模型。举个例子,Snowflake 的 Arctic 模型在一段时间内比当时的当前 Lama 模型要好得多。但下载量、兴趣等水平要低得多,对吧?所以即使是在开源或闭源领域,我认为用户对这些模型有一种基于氛围的直觉,这很难解读。
同意。Anthropic 最初非常,创始人是从 OpenAI 分裂出来的人。他们非常热衷于 AI 安全。因此,Anthropic,至少在其早期营销中,完全是关于安全 AI 的。这是一个非常坚定的 B2B 信息。拥有像房间里的大人一样创建 AI 模型是很酷的,但它也不是那种 B2C 的方式。
非常受欢迎。每个人都必须使用这种信息。Chachpati 早期就有了这种“让我解决你的作业”类型的消息传递,我认为这给了它一种差异化。我认为说到差异化,我认为这可以完美地过渡到我们的下一个故事,这是我最喜欢的 AI 领域创新之一,它与我们现在正在进行的对话非常相关,那就是 Anthropic 的电脑使用功能。而且
承诺真正自动化我们在工作中看到的许多例行任务,但也存在让代理使用电脑的危险。我们将讨论这个问题。除了发布 Anthropic 的最新模型外,Anthropic 还发布了一项新功能,这与他们的新模型带来的差异化有关,它被称为电脑使用功能。简而言之,它的工作方式是 Anthropic 模型持续拍摄电脑屏幕截图
以及你的机器上正在发生的事情。你提供一个输入,例如,将此电子表格中的所有这些单元格复制粘贴到另一个 Excel 表格中,等等。然后根据屏幕截图,创建它需要执行的一组操作,执行这些操作,拍摄另一组屏幕截图,等等,它也完成了它的任务。
这基本上使我们处于这样一个位置:你现在拥有可以自由地与电脑交互的系统。我们有很多角度可以来处理它。所以,Richie,从你的角度来看,你对电脑使用功能有什么看法?什么让你兴奋?什么让你害怕?
我认为在我工作的每家公司以及我与之交谈的几乎每个人中,始终一致的一点是,处理 IT 支持总是很费力。这只是那些根本上难以解决的组织问题之一。所以我想这方面的最终目标是拥有将取代 IT 支持的 AI 代理,至少对于常见任务而言。
这是一件很酷的事情。应该可以为许多公司节省大量资金,并可能使事情变得更容易。另一方面,你是对的。这里有一些很大的危险。像,
生成式 AI 以略微不可预测而闻名。它有时会做非常愚蠢的事情。当你对某人的工作电脑进行管理员访问权限的愚蠢操作时,后果可能会非常糟糕。所以你面临数据安全挑战。你还有可能简单地损坏某人的电脑。这损失了几千美元,还浪费了很多时间。
所以我认为许多安全研究人员对此感到担忧。但是如果这些问题能够得到解决或缓解,那么它将是一项非常有前景的技术。确实如此。我认为对我来说,令人兴奋的是,如果你考虑整个世界 GDP,可能像我的粗略估计,我的世界模型,我可能错了,至少 10%。
世界 GDP 的 10% 到 25% 是人们所做的例行办公任务,他们通常不喜欢做这些任务,并希望做其他事情。这包括将文本从一个字段复制到另一个字段。例如,考虑医疗保健数据录入人员。医疗保健系统中如此多的浪费来自花费在数据录入上的时间以及数据不一致。
当你考虑人们在劳动力市场中执行的这些任务时,如果你能够使用一种可以理解你的电脑外观并能够执行一组任务的自由流动的代理来自动化这些任务,那将是非常令人兴奋的。但是与世界 GDP 相当庞大,并且其中很大一部分可以通过 Anthropic 的电脑使用功能等系统来解决一样,在安全方面,正如你所说,可能出现问题的可能性图
现在,大型语言模型可以导航的危险增加了 1000 倍。你提到了损坏电脑。这很简单,但也有,你知道,例如,通过使用电脑中的个人信息来对某人的电子邮件进行网络钓鱼,等等,对吧?当大型语言模型拥有一个开放式的电脑画布来进行一定程度的工作时,现在恶意使用的可能性要多得多。所以是的,请向我介绍一下你看到的风险。
实际上,是的,网络钓鱼的例子很有趣,因为一旦你将其与深度伪造结合起来,你就可以拥有一个完全自动化的诈骗犯。就像假装与某人聊天的人,获得信任以访问机器,AI 机器人进入并执行其操作。所以是的,网络安全是一个日益严重的问题。我认为这里有一个很大的区别,那就是……
电脑使用或其他类似的 AI 代理来控制电脑在一个严格定义的公司环境中,以及在野外,它被故意用于恶意目的。
我完全同意,但我仍然认为存在一些我们甚至没有想到的这类技术可能出错的方式。我想知道与电脑使用相关的未知未知因素会是什么。你提到了我之前没有想到的一件事,那就是某人的电脑被破坏了,你删除了 Windows 机器中的 system32 文件,完成了。你能使用这些系统恶意攻击电网或一组电脑吗?
即使是从网络安全的角度来看。所以关于 Anthropic 的电脑使用功能,还有很多东西需要学习。你是否碰巧阅读了他们关于电脑使用的安全方法以及他们如何计划安全地推出它?我没有阅读过这方面的内容,所以我不知道这个特定软件的情况。但我听到的一件事是,在过去的几个月里,试图构建 AI 代理的人们的一个常见抱怨是
测试表面积很大。为了确保它运行良好,你需要编写许多不同的测试。因此,拥有一个可以对电脑执行任何操作的工具是一个糟糕的主意,因为你不可能测试所有内容。因此,如果你想采用这项技术,一个明智的实现方法是……
首先只让它执行一些简单的任务,对其进行测试,确保它正常工作,然后逐步实现功能。如果你希望它只为你移动窗口、打开和关闭东西,那么这很好。这是一个足够简单的任务,你可以对其进行测试。如果你希望它只进行文件操作,你可以给它提供十几条文件操作命令,例如,
移动、复制,也许在第一个版本中不要给它删除,然后让它工作,然后一次添加一个命令。这样,你将拥有更安全、更可靠的体验。好的。
好的,我实际上看到有人使用电脑使用功能来玩第一款 Doom 游戏,就像老式的 Doom 游戏。它做得还不错。只是速度很慢。但是自动化玩电子游戏绝对不是我想要的 AI,尤其是在当今时代。也许,Richie,鉴于我们在这里讨论了电脑使用功能,例如,如果你可以在你的电脑上拥有一个智能……
代理为你执行任务,无论它们是什么。是的,这是一个很好的观点。所以 RPA 是机器人流程自动化。所以我们一直在讨论的是让一个工具操作你的电脑。所以像 UiPath 这样的公司,我认为无论如何都是市场领导者之一。所以这已经存在了大约十年,只有生成式 AI 层是新的。
所以我们讨论过的一些关于安全性的问题,例如,在尝试处理这些问题方面已经有了十年的先例。但是生成式 AI 层基本上意味着你拥有一个更好的界面,并且它可以开始自己进行一些推理。是的。然后放眼更广阔的视野,超越电脑使用,电脑使用是一个代理的绝佳示例。
我认为 2025 年将是 AI 代理的一年。我们今天应该如何看待代理?因为市场上可能存在数十个,如果不是数百个代理的话。你认为代理领域将来会变得更通用吗?你会拥有三个、四个像 Anthropic 电脑使用功能一样主导市场的智能代理?或者你会拥有更多专注于特定用例的垂直化代理?
是的,这很有趣。在 DataFrame 上经常会提到代理。几乎每位嘉宾都说,是的,代理很快就会到来。这是 AI 的未来。实际的实现,在这个阶段大多非常简单或原型化。所以我认为市场有很多不同的发展方式。所以有很多公司,很多围绕……的初创公司。你可以轻松创建代理。所以某种程度上是零代码代理创建。有些是更像,是的,我们是行业特定的。有些只是……
好吧,任何人都可以构建一些东西然后出售它。我不知道最好的市场模式将会是什么,但你可以肯定的是,将会有数十家初创公司试图帮助你创建代理。
并可能帮助你销售代理。然后当 OpenAI 发布他们自己的代理版本时,这些初创公司很可能会被淘汰,或者至少其中很大一部分会被淘汰,因为这就是我们在过去几年中所看到的。是的,绝对如此。所以在上次 OpenAI 开发者日上,Sam Alton 有一张幻灯片说,哈哈,我们刚刚摧毁了你的初创公司。是的。
是的,当你构建基于大型科技提供商的其他技术之上时,一个常见的问题是,你总是面临被蚕食的风险。
100%。我认为这总结了第二个故事。也许你可以跳到第三个。我会让你介绍这个,因为这与我们的内心息息相关,因为我们很快就会失业。是的,当然。所以你提到了无聊的 AI 的想法,以及许多特别是白领工作有很多例行的管理任务。最近,大型科技公司围绕这一点发布了一些公告。
最近。首先是 Notebook LM。这是一个 Jupyter Notebook 产品。好吧,我不确定它是否是 Jupyter,但它是谷歌的一般基于 Web 的笔记本产品。它于 2023 年发布。但在几个月前,他们发布了一个播客自动生成功能,老实说,这让我有点害怕。是的。
我试用了一下。它还没有达到 DataFramed 的质量,但 AI 会变得更好。我的观点是 AI 主持人实际上太好了。它们好到让你感觉有点不可思议,它们绝对完美,没有嗯,没有嗯。它们的节奏始终完美无缺。这相当奇怪。
是的,我的意思是,这就是问题所在。我觉得我作为播客主持人的优势之一是我有时会问一些愚蠢的问题。这样,你知道,这是一个手工制作的产品。是的,所以是的,向我们介绍一下即使播客将来也将如何自动化。
是的,我认为这有点像音乐的情况。你有一些创作原创歌曲的顶级艺术家,他们正在创作高质量的音乐。但你还在电梯里、超市里听到背景音乐,没有人真正听。这就是 AI 音乐的优势所在,因为它可以只是背景噪音。
所以我认为这个 Notebook LM 播客生成功能非常相似。就像如果你有一个文档或一组文档,你不会
去让一个人录制一个关于你每周会议的播客。但只需单击一下,你就可以自动生成一些内容,并且你可以很好地讨论一下,好吧,我今天早些时候错过了这个会议中发生了什么?与其不得不听你的同事们关于咖啡的 20 分钟冗长讨论,它只会挑选出重点,然后将其制作成一种娱乐性的形式。
是的,这取决于同事。但我确实非常喜欢 Notebook LM,因为我认为我特别喜欢它有两点。首先,我确实喜欢这个无聊的 AI 概念,因为我们今天看到的许多令人惊叹的 AI 用例都是那些看起来很棒但实际上很多时候在现实生活中并不起作用的东西。想想看,自动驾驶汽车在过去几年取得了长足的进步,但我们仍然没有接近。
远未实现完全自动化。我们一直承诺完全自动化。我们已经说了十年了,明年将实现完全自动化,在某种程度上。但是无聊的 AI 实际上,如此多的人类苦力都花在了这些无聊的任务上,这些任务使工作变得不那么有趣,例如处理电子邮件,其中 90% 的电子邮件都没有用。
这种能够释放你的时间和精力的 AI,我非常喜欢它,尤其是在 Notebook LM 中。如果我在健身房,我会听取对最新 AI 论文或期刊文章的分析,等等。我只是将其检查到一个播客中,这是一种在我健身时非常有用或易于理解的形式。这很好。
而我喜欢的 Notebook LM 的第二件事实际上是播客功能,我认为这是它流行起来的原因。因为在播客中,我们将播放一个播客示例,你现在可以查看它。他们谈到的一个例子是谷歌的 Notebook LM。他们现在有了这个功能,你可以从会议记录中自动生成播客。等等,从笔记中生成播客?是的。
是的。甚至像长篇文章、研究论文之类的。这听起来,我不知道,这听起来很神奇。这到底是怎么运作的?嗯,这很巧妙。基本上,你向AI提供你的笔记或文档,它利用其对语言和语境的理解。
回到它,我喜欢播客功能的原因是它是一种相当新颖的用户界面,用于你如何与信息交互。它打破了未来总结信息的界限。而这是一种只有通过Elements才能解锁的用户体验。如果没有这项技术,你通常无法做到这一点。所以它确实指向了一个未来,即我们与软件交互的方式
将因底层技术而发生根本性变化。我很期待看到基于LLM的产品的UI和UX是如何发展的。那么,你认为基于LLM的产品的UI和UX在未来会如何发展?是的,这非常酷。我认为Notebook LLM播客生成功能很新颖,因为它包含音频,而过去几年中,大量的生成式AI文本一直是最大的新闻。
事实上,这与最近的其他一些公告有关。苹果智能助理刚刚添加了一堆功能,例如总结文档之类的事情。这就像,一年前这很酷,但我们已经有了。Zoom可以进行会议总结。还有其他插件,比如Autopilot可以做那种事情。我觉得很快所有涉及文本文档的软件都会有自动总结功能。
所以这现在感觉就像入门级功能了。因此,Notebook LLM的想法,你也有音频,它在你写的东西或你的文档中创建一些新颖的东西,这非常有用。是的,看看音频领域是如何发展的也很有趣,就像在AI领域一样。有一家初创公司,Speechify。我的手机上也有。例如,我阅读了很多文章,但有时我在通勤,我在健身房,等等。
你可以让名人为你朗读文章。而这些你可以与LLM交互的新颖方式,肯定会很有趣,看看它将如何发展。在我们即将结束时,你认为自动生成的播客和Notebook LLM会像DataFrame一样好吗?嗯……
这很难说。我的意思是,这需要大量的微调。理想情况下,为了真实性,我们必须深度克隆我们的声音。但就我提出的问题而言,
我最近一直在努力尝试自动生成更多我的访客问题。所以我过去会手写我问DataRain每个客人的每一个问题。但现在我所做的是,我已经用我之前的所有问题训练了GPT。现在它可以写一些类似于我会说的话。
我通常可以得到大约一半的剧集问题。然后我去修改那些问题。然后当我真正与客人交谈时,我会做我通常做的事情,只是忽略大部分问题。所以从实际的AI来看,有好几个级别的间接性。但它确实提出了一个相当好的第一近似值。所以我们可以得到一些类似的东西,
在不久的将来,用AI制作DataFrame的B-roll。是的,如果你想让我们加入DataFrame Notebook LLM片段,请告诉我们。我们正在考虑这件事。也许,Richie,你还对当今AI领域的哪些新闻感到兴奋?哦,我的天。既然我们正在谈论音频,我们最近邀请了几位DataFrame嘉宾来谈论所有这些音频用例。我认为这是一件事,它不像文本或视频那样受到炒作。
尤其是在工业用例中。我有一位客人谈到在制造工厂中,只需收听生产线上发出的声音,你就可以知道哪里出了问题。汽车的故障诊断也是如此。因为我开的是一辆非常旧的车,所以我特别关注这一点。所以只是理解使用音频的物理对象出了什么问题。这似乎没有人谈论它,但它有……
为制造公司节省资金的巨大潜力。是的,我完全同意。这实际上是一组很好的用例。它回到了无聊的AI的概念。从技术上讲,设置起来并不难
一个可以识别故障汽车部件的识别系统,对吧?你只需要相对较好的数据才能微调模型并对其进行训练。但它可以为你作为车主、车库和制造商解锁的价值非常大,并且确实回到了,你知道,无聊的AI将在2025年兴起。记住我们的预测。我认为我们在2023年的数据趋势和预测中谈到了这一点,它仍然会上升。它仍然会上升。
Richie,在我们第一期行业综述节目结束时,还有什么最后的笔记要分享吗?是的,我们今天谈了很多关于AI的事情。当然,我们都对AI非常兴奋。也许在未来的剧集中,我们也可以谈谈一些数据方面的事情。我们将在本播客中介绍。什么是数据?我认为我们现在只谈论AI。但是,是的,似乎AI已经占据了我们所有的注意力,所以我们只能涵盖它。但是,是的,确实,
如果你喜欢这一集,我知道这与你习惯的格式不同,但如果你想听到更多关于我们的行业综述的内容,也许我们会采用不同的格式,例如进行AMA,请告诉我们。我们很乐意听取你的反馈,以及我们如何使节目更好。我们还在节目的开头包含了一个调查问卷,你可以在节目说明中访问。请告诉我们你对节目的想法以及我们如何才能让DataFrame变得更好。然后进入下一个。当然。很高兴和你聊天,Adel。我也是。