James Landay focuses on human-centered AI, particularly in education and health, where AI serves as a coaching and tutoring tool to optimize technology for societal good.
GPT Coach uses a large language model to simulate a personal fitness coach, processing qualitative data from users to create personalized fitness plans, incorporating techniques like motivational interviewing.
Health professionals provide insights and methods for coaching, which are integrated into the AI system to ensure the coaching style aligns with effective health practices.
Smart Primer uses narrative-driven tutoring systems with augmented reality and AI to engage children in hands-on learning, encouraging them to write more through personalized feedback from large language models.
Ambient awareness involves using subtle displays on devices like phones to provide users with information about their progress towards goals without requiring active attention, enhancing engagement and goal adherence.
Human-centered AI considers not just the user but also the broader community and societal impacts, ensuring AI systems have positive effects beyond the immediate user interaction.
Acorn allows for dynamic story generation based on user interactions, enabling personalized learning paths and larger learning gains compared to pre-written narratives.
Social features can provide group support and motivation, though they must be carefully designed to avoid negative interactions that could discourage users from achieving their goals.
Future interfaces will combine graphical elements, ambient displays, and conversational interactions, allowing users to adjust plans and receive motivation through a mix of visual and verbal cues.
The Acorn project achieved significant learning gains with large effect sizes, indicating the effectiveness of personalized, narrative-driven learning experiences powered by AI.
嘉宾詹姆斯·兰迪是人本中心人工智能领域的专家,致力于优化技术以造福人类和社会。兰迪表示,教育与人工智能的交集是最有前景的领域之一,技术在辅导和教学工具方面表现出色。他的Smart Primer和Acorn应用程序利用增强现实和人工智能让孩子们参与户外的实践环境科学,而他的GPT Coach则是一个基于人工智能的健身规划工具。兰迪在斯坦福工程学院的《一切的未来》播客中告诉主持人拉斯·阿尔特曼,关于人工智能和教育的事情仍然广阔且刚刚起步。如果你有问题想问拉斯,请以书面或语音备忘录的形式发送给我们,可能会在即将到来的节目中被提及。请介绍一下自己,告诉我们你来自哪里,并分享你的问题。你可以将问题发送至[email protected]。剧集参考链接:斯坦福简介:詹姆斯·兰迪Smart Primer与我们联系:剧集文字记录 >>> 一切的未来网站与拉斯联系 >>> Threads / Bluesky / Mastodon与工程学院联系 >>> Twitter/X / Instagram / LinkedIn / Facebook章节:(00:00:00) 引言拉斯·阿尔特曼介绍嘉宾詹姆斯·兰迪,斯坦福大学计算机科学教授。(00:02:04) 人工智能应用的演变大型语言模型如何复制个人辅导体验。(00:06:44) 健康专家在人工智能中的角色将医疗专业人士的见解整合到人工智能辅导系统中。(00:10:21) 人工智能辅导中的个性化人工智能教练如何调整个性和头像以迎合用户偏好。(00:12:51) 人工智能辅导中的群体动态为人工智能辅导系统添加社交功能和群体支持的利弊。(00:14:08) 技术中的环境意识环境意识及其如何在没有主动关注的情况下增强用户参与度。(00:17:44) 在小学教育中使用人工智能叙事驱动的辅导系统以激发孩子们的学习和创造力。(00:22:59) 使用人工智能鼓励学生写作利用大型语言模型通过个性化反馈激励学生写作。(00:23:52) 扩展人工智能教育工具ACORN项目及创建动态、可扩展的学习体验。(00:27:58) 以人为本的人工智能以人为本的人工智能概念及其对社会设计的关注。(00:30:34) 结论 与我们联系:剧集文字记录 >>> 一切的未来网站与拉斯联系 >>> Threads / Bluesky / Mastodon与工程学院联系 >>> Twitter/X / Instagram / LinkedIn / Facebook</context> <raw_text>0 大家好,我是拉斯·阿尔特曼,来自《一切的未来》。我们在播客中开始新的问答环节。在每集的最后,我会回答一些来自观众和听众的问题。
如果你有问题,请以书面或语音备忘录的形式发送给我们,可能会在即将到来的节目中被提及。请介绍一下自己,告诉我们你来自哪里,并给我们你的问题。你可以将问题发送至thefutureofeverythingatstanford.edu。未来的一切,所有一个词,没有空格,没有大写,没有任何东西,@stanford.edu。
S-T-A-N-F-O-R-D 点 E-D-U。非常感谢。
大型语言模型让我们能够了解他们所写的内容。有时你会遇到一个几乎什么都不写的孩子。我们能够利用大型语言模型鼓励那些写得不多的孩子实际上写更多。这是一个重要的成果,你能够让孩子们写得更多。孩子们认为写作是这次体验中他们最喜欢的部分之一。
这是斯坦福工程学院的《一切的未来》,我是你的主持人拉斯·阿尔特曼。如果你喜欢这个节目,或者它在某种程度上帮助了你,请考虑给我们评分和评论。我们喜欢得到五分,但请给我们应得的分数。你的反馈对我们帮助节目成长和传播信息至关重要。
今天,斯坦福大学的詹姆斯·兰迪将告诉我们,人工智能不仅擅长生成文本和回答问题,它还可以作为教练激励我们,作为导师教导我们。这是人工智能辅导的未来。在我们开始之前,再次提醒大家给节目评分和评论。给我们五分,这将有助于传播消息。
像ChatGPT这样的大型语言模型以及许多其他模型已经开始遍布各地,人们正在利用它们提高生产力。我们在写信、编辑文本、回答问题。人们正在做很多事情。但我们并不总是考虑,我们能否将这种人工智能作为教练或导师的一部分,帮助我们从现在的状态达到我们想要的状态?
詹姆斯·兰迪是斯坦福大学的计算机科学教授,也是斯坦福人本中心人工智能研究所的共同主任。他将告诉我们,他构建了一个使用人工智能的健康健身教练原型。他还为小学生创建了一个辅导系统,让他们通过大型语言模型、走出户外和互动来学习行星、全球变暖、火灾等知识。
詹姆斯,你在2019年5月参加过我们的节目,那真是太棒了。但现在似乎你在使用人工智能进行教学和辅导方面做了很多工作。你在过去几年中的工作是如何演变的?你最兴奋的是什么?嗯,自2019年以来,世界上发生了很多事情,拉斯,你可能还记得。
但我大多数项目都视为10年或20年的努力。这些是大问题,如果解决了,可以对世界产生重大影响。因此,像如何改善教育系统或如何改善人们的健康,对我来说不是三年内能解决的事情。这是我们长期努力的方向。在这个过程中,我们会提出一些可能改善的想法。例如,在健康方面,当我之前和你谈话时,我们讨论了如何让人们更好地意识到。
通过我们所称的环境显示,提升他们对自己健身目标的意识。例如,在他们手机的锁屏上显示故事或图像。从那时起,我们一直在研究如何让人们更有个人教练的感觉,即使他们负担不起个人教练。因此,就像个人辅导一样,个人教练对试图改变健康或健身的人非常有效。但我们许多人负担不起个人教练,因为这相当昂贵,而且没有足够的教练来满足我们的需求。
结合人工智能的进展,例如大型语言模型,我们能够利用这一点。大型语言模型。是的,大型语言模型,或者我们在斯坦福喜欢称之为基础模型,因为我们将基于这些基础构建其他应用程序。
我们可以利用这种模型来满足人们对教练的真实需求。因此,你可以想象所有这些健身应用程序,无论是苹果的健身应用程序还是谷歌的Android健身应用程序Google Fit。它们往往是非常定量的形式。因此,你可能有一个应用程序,可以输入一些定量的目标。
但定性的问题往往会让人们感到困惑。你知道,应用程序告诉我,嘿,你知道,每天早上去跑步。但,嘿,我需要把我的孩子送到幼儿园,我无法将其纳入我的日程。你知道,他们的用户界面。抱歉打断你。用户界面很糟糕。我有一块Garmin手表,有时我跑五英里,最后它说无效锻炼。就这样。
我只想把它扔到砖墙上。所以你已经让我感到兴奋,但请继续。因此,这些大型语言模型的好处在于它们在处理文本方面非常出色。对我们来说,表达一些定性问题的许多方式,比如在过去的健身活动中对我们有效的事情,或者我们可能遇到的障碍,这些模型实际上能够
处理这种信息,如果我们与它进行对话,就像你可能与教练进行的对话,然后帮助你制定一个考虑到这些问题的健身计划。因此,我们构建了一个名为GPT Coach的应用程序,我们使用了—
一个大型语言模型,你知道,实际上让这些东西按你想要的方式工作要比说起来难得多,但基本上我们可以创建一堆我们称之为代理的东西,使用模型的不同部分,这样我们就可以检查我们告诉你的内容,并保持模型在轨道上,因为我们使用了一种称为动机访谈的技术,
这种技术是由斯坦福医学院的研究人员推广的,用于辅导。我们可以让这个教练几乎使用这种访谈风格来
找出过去对你有效的事情,你的障碍是什么,然后一起制定一个健身计划。我们在实验室中对这个进行了测试,参与者对其效果感到震惊。事实上,当我第一次测试它时,我说,这现在可以成为一个产品。这就是我认为它的效果有多好。好的,那里有很多令人兴奋的事情。因此首先,我想这不是开箱即用的ChatGPT。
不是开箱即用的。我们必须基本上将其拆分为一堆不同的代理,它们在这次访谈中尝试执行不同的任务,同时保持其在轨道上并检查我们在过程中处于何种状态,获得了什么信息。我们还从你的数据中获取信息,你知道,你有一块Garmin手表。很多人都有苹果手表或仅仅是iPhone。我们能够实际获取他们三个月的先前数据并
利用这些数据来推动对话,了解他们在做什么。因此,你提到的另一个非常有趣的事情是,你似乎与医学专家在健身或健康方面合作。告诉我关于这一点,因为现在你试图让这个大型语言模型在一个非常高超的水平上做事情。那么...
健康专业人士的角色是什么,你如何将他们的知识融入到这个模型中?是的,我的许多项目往往是跨学科的,与计算机科学以外的人合作。因此,有时甚至在计算机科学的不同子领域中。因此,你知道,正如你提到的,我上次参加节目时,我们讨论了建筑和智能建筑。我还与土木工程、教育和可持续发展等领域的人合作,以及健康。
我有一个项目已经进行了一段时间,上次我提到过,就是这些健康和健身的环境显示。现在,作为其中的一部分,我们与医学院公共卫生领域的人密切合作。你知道,那支团队在培训教练和最佳教练方法方面有很多经验。因此,在这种情况下,他们实际上创建了一本手册。
因此,我们能够利用这本手册,了解其结构和信息,并将其输入大型语言模型,以帮助我们的系统以这种风格进行操作。我们还与他们进行咨询。他们在这个项目上并没有作为紧密的合作伙伴,但我们进行了反复的咨询,随着我们进入下一个阶段,他们可能会变得更加紧密,因为我们
到目前为止所做的只是能够复制你可能与教练进行的第一次会议的前30分钟或60分钟。他们试图了解你的目标、障碍以及有效的事情,并制定一个计划。但项目的下一步是,好的,现在我在手机上有一个教练,这意味着什么?
在接下来的六个月里,我在进行我的锻炼计划。因此,该界面是一个更难的设计,因为第一个实际上是一个对话界面。就像我们在开会。但现在我将有这个应用程序在我的手机上运行,我们认为
语言并不是你总是想要使用的界面,你希望看到图形元素。在这里,我们从我之前在环境显示方面的研究中学到了一些东西,显示一些视觉故事。但现在你可能想使用语言,例如,当你想说,
它可能会提醒你,嘿,拉斯,你承诺今天早上去跑步。你可能想说,哦,但我有一个与詹姆斯·兰迪的重要会议,我不能错过。真的很重要。对吧。也许你生病了。因此,你可能会使用这个。然后教练可能能够调整你的计划。因此,改变你的计划或有例外,或者能够,知道你不想做的时候突出显示。也许它会想出其他方法来激励你,或者给你一个更简单的目标,帮助你实现目标。因此,我们将有一个结合的界面,现在结合传统的图形界面和环境显示,但也有你可能在想要时仍然进行对话的部分。因此,
这就是我们现在正在设计的内容。然后计划是进行一个短期研究,大约三周,只是为了排除错误。但在所有这些工作的真正目标是,我们能否进行一项可能持续三、四、六个月的研究,显示人们在实现目标或改变行为方面比没有控制的情况下做得更好。是的。这听起来非常令人兴奋。顺便说一句,给我报名参加这个。因此,但有一个问题。当你有一个教练时,我知道一些人有过教练,我知道有一个面试的过程,因为你总是在寻找那个教练。
谁的生活观和健康与幸福的观点与你相匹配。你知道,有些人喜欢军训教练,我们都见过这些荒谬的视频,他们在YouTube上说,去吧,你能做到。你知道,更努力地工作,工作到你掉下去。然后还有其他人更像是,让我们做你想做的事情。你想象你会有
或者你认为大型语言模型已经能够根据用户的偏好调节他们的语气吗?是的,这是一个非常好的问题。因此,实际上,在我们设计这个的视觉版本时,
我们看到一种类似于化身的角色,代表教练。因此,我们正在进行一项在线研究,以测试这些不同的教练设计和个性。这就是我们想要发现的,不同的人对类型的偏好是否不同。我们正在努力以一种方式设计它,以便我们可能能够切换不同的个性等。
现在,我对我的研究生的警告是,我们可能不想在这个版本的第一版中这样做,因为那样会使研究结果更难解释。对吧。好点子。是因为你有不同的教练吗?但我认为对于一个产品,你可能会想要。
不同的视觉主题,比如,你知道,我们有一个太空主题和一个海滩主题,你知道,不同的人,可能你想做一个完整的主题。伙计,我们必须锻炼,伙计。对吧。因此,在视觉上有不同的主题,但可能有不同的主题,有些人想要一个非常严格的教练,推动他们。就像我曾经有一个教练,他能让我哭,真的。
因为他能把我推到我自己无法做到的地方。有些人对此没问题,但其他人如果有这样的教练会放弃。因此,理解这一点是我们正在关注的内容,但我们可能不会在这个版本的第一版中推进,因为再次,这会给研究带来太多混淆。但我认为对于进一步的长期项目,是的,你可能会有不同的个性,是的,你会,
在大型语言模型方面,你可以做到这一点,但我们也看到在视觉和化身个性方面的需求。因此,我们在各个方面都在关注这一点。我们可能不会在这个版本的第一版中看到这一点。
我非常清楚我给你提供了所有这些功能,而你需要先走路再跑,但这并不会阻止我。我的下一个问题是,团体活动呢?许多人在健康方面获得了很多支持,尤其是在健康方面,比如他们是跑步小组的一部分,或者他们是划船或锻炼小组的一部分。你有没有,也许不是今天,但在你的愿景中,有某种来自其他人的社交支持?
我的意思是,它不在初始版本中。我在这个领域工作了很长时间,我必须告诉你,人们认为,哦,是的,社交,你必须添加社交。但我们做了一些早期的研究,我们发现社交实际上也可能适得其反,导致更糟糕的结果。因此,我记得当我在西雅图华盛顿大学时,经营一个英特尔的研究实验室。我们做了其中一个早期的研究,参与者在一个小组中,
而且确实有一个女人在西雅图的一个女人走上山时开车经过。那位女士说,为什么你要走上山?你可以仅仅通过走平地获得积分。因此,你知道,那个小组甚至在劝阻她进行锻炼。因此,这是一件你必须非常小心设计的事情,因为它也可能导致相反的结果。因此,我们现在不考虑小组,但显然,如果这是一个真正的产品,你可能会考虑在哪里整合这一点。是的。
我的下一个问题有点关于定义。即使在这次对话中,毫无疑问,在你的著作中,你谈到了环境意识的概念。我只是想,能否为我定义一下,并告诉我为什么这是一件重要的事情,因为这不是我通常归因于计算机甚至大型语言模型的事情。通常我的大型语言模型在我的计算机上的一个小白盒子里。它不知道我是在暴风雨中还是在水疗中心。那么,环境意识对你来说是什么?所以,
当我思考什么是环境意识或环境显示时,它实际上源于这样一个想法:很多时候我们在关注现实世界中的其他事物。我们并不是盯着手机做某件事情。对吧。我们如何利用这些瞥见手机的机会,实际上在背景中向我们传达信息?
即使这不是主要任务。因此,许多健身应用程序和类似的东西,为了了解那里的情况,你需要打开应用程序并查看,哦,是的,我今天走了这么多,我跑了这么多。但只有当你去检查时,你才会意识到发生了什么。因此,我们的研究基于这样一个想法:那些在实现目标方面表现良好的人是
那些对自己所做的事情更加了解的人。他们在追踪它。要么他们在积极检查,要么他们只是意识到。哦,我知道我把车停在那边。我走了这么远。但那些不太了解的人更难
知道,今天我们做得好吗?我们需要做更多吗?因此,环境意识的想法是,我们能否有一个显示器,你可能只是瞥一眼,看到它给你一种你做得如何的感觉?因此,我们利用手机的锁屏。
或解锁时的壁纸,作为一种查看某种显示的方式,给你一种感觉。因此,我认为你今天看到的一个例子是,如果你使用Apple Watch,你可能会看到那些环。如果你使用那个显示,我认为他们可能是从我们的研究中获得的,因为我们已经在这方面工作多年。但这有点太微妙了。大多数人甚至不知道,那些环是什么意思?这是好还是坏?在大多数人的手表上,它有点小。
因此,对我们来说,它必须是你真正看到的东西。通过一个瞥见,你就能感受到,嘿,我今天做得不错,或者我这周做得不错,或者不,我应该带上我的健身包,因为我真的需要做更多。因此,我们希望利用这些瞥见,即使你没有明确运行应用程序,也能感受到你做得如何。
不,我喜欢这个想法,因为除了我的手机和手表,我现在面前有两个显示器。还有很多空间没有被利用。一个小角落告诉我,你没有保持健康或其他的。这可能是一个非常重要的事情。这是《一切的未来》,我是拉斯·阿尔特曼。接下来与詹姆斯·兰迪的更多内容。
欢迎回到《一切的未来》。我是拉斯·阿尔特曼,我正在与斯坦福大学的詹姆斯·兰迪交谈。在上一段中,我们谈到了詹姆斯构建健康健身教练的工作,它们似乎有效且前景非常可观。但他现在将一些相同的想法应用于小学生,帮助他们拥有更丰富的学习体验。这涉及到让他们走出户外,与世界互动,并
使用大型语言模型,他将告诉我们,这使他们写得更多。也许大型语言模型并不是我们所知的写作的终结。
但我知道,詹姆斯,你也在关注教育,特别是小学教育,这无疑是最关键的,就像儿科医学一样。这是未来。那么,人工智能在小学学生中发生了什么?是的。因此,再次,我的一个长期项目是这个名为Smart Primer的项目。整个想法是我们能否使用叙事故事?
将活动嵌入叙事中,以此来让孩子们参与他们的教育。这一高层次的动机是,你知道,我们中的许多人在学校系统中表现良好。这是一种工厂式的学校系统。任何在斯坦福的人可能在这个系统中表现良好。但可能有很多人才从未适应这个系统,并没有真正受到激励和兴奋。
因此,在某种程度上,他们没有在社会中实现他们的潜力,可能最终从事的职业不那么令人满意,经济生产力也较低。因此,我的一个目标是,是否有办法激励孩子们,
在传统学校之外学习,也许这会在他们一生中的其他教育成果中延续下去。因此,Smart Primer是一个系列项目,试图探索叙事在个性化辅导中的使用。
因此,我们随着时间的推移构建了多种这些项目。但现在,人工智能部分开始更好地工作,通过这些基础模型和大型语言模型,我们可以做更多。因此,几年前的夏天,我们构建了一个名为Moon Story的应用程序。它在智能手机上运行。作为其中的一部分,孩子们学习环境知识。他们学习
行星、太阳以及行星之间的规模差异。他们学习行星与太阳之间的距离规模差异。因此,实际上,
要使用这个,他们在手机上进行移动增强现实。我们让这些孩子参与其中。你提到的移动增强现实?是的。定义一下那是什么。移动增强现实。因此,不需要戴上护目镜,而是在手机上,我们可以通过相机看到物理世界中的物体,但我们可以在其上叠加数据。
例如,我们让孩子们来到斯坦福。我们在科学与工程广场上有这些巨大的,我称之为大弹珠的东西。这是一个大型艺术乐器。
大约有10或12个这样的巨大弹珠。我喜欢那些东西。它们看起来像行星。它们真的看起来像行星。因此,我有这个想法,哦,我们能否将这些映射到行星,并缩小它们之间的距离?你知道吗?
我们能够在广场的一端放置太阳,并准确地经过内行星之间的距离。因此,孩子们看到太阳。当他们走到这些行星时,他们实际上可以看到真实行星相对于太阳的规模。以及他们走的距离,他们了解到的是相对距离。
然后他们走过所有内行星。然后我们让他们从火星走到木星。因此,木星是第一个外行星。他们必须从科学与工程广场走到斯坦福的纪念教堂,可能有半英里或三分之一英里远。这显示了从那些内行星到现在的距离,你刚刚走了20米,现在你要走大约400或500米才能到达那个。如果你想去土星,顺便说一下,它在地球的另一边。
穿过校园的另一端。
关于行星的整个故事也嵌入在一个基于古老中国故事的故事中,关于月亮女神和她的丈夫,他是一个弓箭手,必须射下这七个使地球过热的球体。因此,我们有这个故事,他们学习全球变暖以及行星的知识,所有这些都嵌入在故事中。然后作为其中的一部分,
大型语言模型让我们能够让他们写下他们所学到的内容以及他们在日常生活中想要改变的可持续性。大型语言模型让我们能够了解他们所写的内容。有时你会遇到一个几乎什么都不写的孩子。我们能够利用大型语言模型鼓励那些写得不多的孩子
实际上写更多,这也是一个重要的成果,你能够让孩子们写得更多,孩子们认为写作是这次体验中他们最喜欢的部分之一,因为他们得到了来自月亮女神的反馈,关于他们所写的内容,因此你有故事中的角色在大型语言模型中体现出来,对吧?而且这一切都是个性化的,针对你所写的内容。
这是我们在这方面唯一使用大型语言模型的地方。我们通过进行前测、后测和几周后的测试来获得学习成果。但令我感到惊讶的是,嘿,我们让孩子们写得更多。这真的很难。
尤其是因为人们说大型语言模型将是人类写作的终结。而你有一个反例。为了更好地理解这一点,是不是他们与大型语言模型互动,它在提示他们,比如,嘿,你今天做了什么?你对那个行星的事情有什么想法?大型语言模型如何让他们写得更多?因此,在这种情况下,大型语言模型问他们一些关于他们可能在生活中改变的具体问题。
关于可持续性以及他们所学到的内容。如果他们没有写太多,它会鼓励他们写更多,问后续问题。即使他们写了一些东西,它也可以相对于他们所写的内容进行回应,并鼓励其他回应。因此,这就像你真的有一个人阅读你所写的内容,并给你反馈,这些反馈与您所写的内容非常相关,而不是计算机程序过去可能会给出的固定回应。你没有强调的另一件事,但我必须指出的是,这显然是在户外,孩子们在移动,孩子们不在教室里。这确实,你在介绍中提到的一些孩子不擅长的地方,教室环境并不是他们的强项。你可以想象,通过让他们走出户外,置身于空间,进行移动,这创造了一个完全不同的设置。
技能和兴趣,似乎你兑现了这个承诺。是的。所以这个想法的一个重要方面,这个想法最初来自于科幻作家尼尔·斯蒂芬森1995年的小说《钻石时代》。我给尼尔·斯蒂芬森全权归功,因为这个想法就是从这里来的。我从1995年开始思考这个问题,虽然直到2010年iPad发布时才认真考虑,我想,哦,那就是他所描述的设备。
但这个想法是,今天的孩子们坐在室内看屏幕。他们没有像我们小时候那样在外面玩耍,比如在纽约人玩的棒球,或者我们玩的滑板等户外活动。父母们感叹他们的孩子只待在室内。因此,作为这一点的一部分,
我不想仅仅创造另一个只会强迫你待在室内的东西。显然,有些部分你可能会在室内进行,比如阅读一本书。但还有其他部分,我们希望你能出去,在现实世界中进行活动,无论是在你的后院、街区,还是和父母一起在小径上。所以我们之前做过一个项目,实际上是观察桉树。
你拍一张桉树的照片,闻一闻叶子,你实际上会了解奥克兰山脉中桉树与火灾的关系。你会了解到一些争议。你知道,它们不是本地树种。我们应该把它们去掉吗?你必须进行辩论。这是那个故事的一部分。但从那时起,我们加倍努力,利用大型语言模型(LLM)来做更多的事情。因此,今年夏天,我们建立了一个新系统。
现在,在这个我们称之为“橡果”的系统中,它再次具有环境主题。孩子们学习关于树木的知识,再次是本地区的树木,因为我们使用的是这些树,但这种树在其他地方也能找到。因此,他们学习加利福尼亚橡树。他们学习橡树的知识,以及不同动物如何利用橡果以及生活在树上的生态系统。还有其他角色,这些动物将教他们这些知识。
现在,这个系统与之前的不同之处在于,在之前的系统中,我们必须设计整个故事并编写整个故事。我们与作者合作来帮助我们。所有内容都写在代码中。在这个系统中,我们只需定义角色,定义故事的轮廓以及将会发生的事情,然后对某些事情施加一些约束,要求你在移动到某个部分之前必须完成或学习某些内容。
然后,从中,LLM为每个孩子实时生成整个故事。孩子可以根据他们想学习的内容选择不同的故事路径。因此,有两个重要的方面。再次强调,我们在这个过程中有户外移动增强现实的部分。这个系统中真正有趣的是,编写这些故事并做好是很困难的。其次,这使得这一切能够自动化并个性化,适应孩子的表现。
我们发现,我们的学习成果超过了我在教育领域进行的任何研究,效果大小非常显著,这很难实现。非常困难。因此,这个系统是有效的。
所以它是有效的。再次强调,这些都是小规模的,嘿,你做了这个事情一个小时。这并不是一个完整的课程。现在,最后一个项目中有真正的潜力。因为我们以这种方式编写了它,我们认为现在可以在这个工具包的基础上构建一个工具,允许教育工作者或课程专家基本上提出课程,只需概述他们想要的内容。
以及学习目标和如何将它们联系在一起。然后系统可以生成它。因此,我们真的有机会以一种之前没有的方式来扩展这个项目。所以下一步是在此基础上构建那种工具。令人难以置信的激动人心。因此,听着,在最后一两分钟,我想问你一些不同的事情,那就是你是斯坦福大学一个致力于以人为本的人工智能的机构的领导者。是的。
我想问你,听起来不错。什么是以人为本的人工智能,它为什么不同?我们当前的人工智能不是以人为本的吗?是的,我会说。
一般来说,当前的人工智能不是以人为本的,除非你试图去思考它。我们在五年前左右开始了这个研究所,提出以人为本的人工智能的理念。但在那之后的几年里,我有点不满意,觉得哦,那只是一个空洞的承诺。我们只是说以人为本,而没有尝试定义什么是以人为本的。
有趣的是,人工智能系统更有可能对你社区或社会的其他部分产生我所称之为的副作用。这在传统软件中也可能发生,但在人工智能中更为常见。例如,你的系统对在非洲标记训练数据的人有什么影响?如果你不给他们足够的报酬,或者如果你切断他们的收入,那会产生影响。或者在这个医疗系统中,你不是用户,但你的医生可能使用它,并决定你不会得到某些救命的护理?即使你不是用户,你也会受到影响。因此,我们思考设计软件系统的方式主要是关于我们所称的用户中心设计。让我们让用户参与进来,确保他们的需求得到满足。
但在这些人工智能系统中,越来越多的情况是,用户与那些受到影响的人并不是同一个人。
因此,我所倡导的以人为本的人工智能意味着我们仍然需要进行用户中心设计,但我们需要超越这一点,还要进行社区中心设计,以获取可能受到影响的社区。假设某人受到刑事判决的影响,判断他们是否应该入狱,或者,或者,是否应该获得家庭释放,或者他们应该支付多少保释金。
这些影响不仅仅是使用它的法官的影响。最后,如果一个人工智能系统变得无处不在,想想我们社交媒体应用程序的普遍性,以及我们在其中看到的信息,你可能会开始看到社会层面的影响。因此,以人为本的人工智能意味着我们需要在用户层面、社区层面和社会层面进行设计,并在设计人工智能系统时考虑所有这些因素,以便我们希望它们产生积极的影响。
这太棒了,听起来你通过刚才告诉我们的项目正在践行这一愿景。这确实是一个伟大的愿景。
感谢詹姆斯·兰迪。这就是人工智能辅导的未来。你正在收听《一切的未来》。你知道,我们的回顾目录中有超过250集的节目。因此,你可以随时收听许多事物的未来。此外,请记得在你收听的应用程序上点击关注图标,以确保你始终收到我们新节目的提醒。
你可以在许多社交媒体上找到我,比如蓝天、Mastodon、Threads,@RBAltman或@RussBAltman。你还可以在LinkedIn上找到我,Russ Altman,我会在上面宣布所有新节目。你还可以关注斯坦福工程学院@stanfordeng。
如果你想对本集或之前的集数提出问题,请给我们发送书面问题或语音备忘录问题。我们可能会在未来的节目中展示它。你可以将其发送至[email protected]。所有单词,the future of everything。没有空格,没有下划线,没有破折号。[email protected]。再次感谢你的收听。我们希望你喜欢这个播客。