cover of episode The Ethics of AI and the Path to Safe Innovation  Ft. Reid Hoffman

The Ethics of AI and the Path to Safe Innovation Ft. Reid Hoffman

2025/2/6
logo of podcast American Fever Dream

American Fever Dream

AI Deep Dive AI Chapters Transcript
Topics
@Sammy Sage : 我主要关注人工智能对世界的潜在负面影响,尤其是在非人化方面。虽然人工智能在医学和科技领域有积极应用前景,但我担心它在色情行业的应用会进一步贬低女性。我质疑那些主导人工智能发展的人是否真正关心伦理和社会责任,尤其是在性机器人等应用方面。我希望确保技术的发展能够提升人性,而不是加剧不平等和剥削。 @Reid Hoffman : 我对人工智能的未来持乐观态度,认为它有潜力改善人们的日常生活和工作。我相信技术进步是不可避免的,关键在于如何引导和塑造它。我认为应该采取平衡的监管方式,既要鼓励创新,又要确保安全。科技行业正在努力避免致命错误,并致力于将人工智能与人类利益对齐。虽然公众对科技行业的信任度较低,但与其他机构相比,科技行业在提供免费信息和通信方面做出了巨大贡献。我相信通过开放的讨论和合作,我们可以确保人工智能的发展符合人类的价值观和伦理标准。

Deep Dive

Chapters
This chapter explores the potential dehumanizing effects of AI, particularly in the context of AI-generated pornography and the lack of empathy among those developing the technology. It introduces Reid Hoffman's humanistic perspective as a counterpoint and sets the stage for the interview.
  • AI's potential for dehumanization, especially in pornography
  • Concerns about the ethical priorities of AI developers
  • Reid Hoffman's humanistic perspective on AI

Shownotes Transcript

今天,萨米邀请了LinkedIn联合创始人里德·霍夫曼,讨论人工智能的乐观未来,强调其改善日常生活和工作的潜力。霍夫曼谈到了公众对技术的信任、监管的重要性以及人工智能带来的伦理困境。他主张采取平衡的监管方法,在促进创新的同时确保安全。谈话反思了人类是否天生善良以及人工智能在增强人类能力方面的作用。了解更多关于您的广告选择的信息。访问megaphone.fm/adchoices</context> <raw_text>0 你有没有在麦当劳看到热乎乎、脆脆的薯条刚被装进纸盒的那一刻?时间仿佛静止了。巴达巴达巴达。

起床吧,做着白日梦的人们。振作起来,我的朋友们。我是V·斯皮尔。我是萨米·塞奇。这是美国白日梦,由Betches新闻呈现。我们在这里探索我们独特的美国经历中的荒谬和奇异之处。怎么了?老兄,怎么了?机器人统治者最近联系了吗?我们现在在哪里?自从我们......

上次录音以来,但也许当人们收听时,它可能已经发生了。也许我们现在正通过人工智能与你们交谈。我们可能是。这完全是Chat GPT或Deep Seek。Deep Seek?Deep Seek。他们会禁止那玩意儿的。他们会像禁止TikTok一样禁止它。那是下一个要消失的东西。我不知道。别对它们太舒服了。让我们拭目以待。那么你对人工智能有什么看法?你对它的感觉如何?好的。好的。

我不喜欢它,因为我认为最好不要,你知道,最好不要。

而且我认为“机器学习”这个词听起来很酷。所以我理解。而且我确实遗憾地喜欢我看到的一些AI艺术,他们用国家和动物做成,然后让它们动起来,让它们看起来很酷等等。我想,但我不认为我们需要为此烧毁世界。我认为我们可能可以不用它。我认为我们可能不应该这样做。这真的是我对它的感觉。事情是这样的,我......

知道你无法阻止进步。所以,尽管你想说,我们不应该......阻止某些行为者做某事,因为我们认为它应该停止在艺术和手机里的个人助理上。嗯,我同意。我同意。这就是让我害怕的地方。并不是说进步必须......我认为进步是坏的。而是我不一定信任那些进步的守护者,因为

尽管我希望如此。不。如果它像《杰森一家》那样,我会很乐意的,对吧?因为如果你看看50年代和60年代使用技术改进的方式,它更多的是为了让人们节省时间,对吧?你有一个自动滴滤咖啡壶。那太不可思议了。那就像,节省了你的时间。你家里有不同的电器或东西,让它更舒适、更宜居,给了你更多的时间。

然后有了这些时间,你仍然可以赚到让你休闲的薪水。而现在有了人工智能,我觉得它只会让我有更多工作要做,因为我必须完成我的工作,然后还要不断学习这些新的应用程序。然后当你学会一个的时候,它就过时了。

所以我不知道现在的技术是否能给我那种有趣、酷炫的杰森一家。不是杰森一家。《杰森一家》。《杰森一家》。我觉得是《杰森一家》,不是《杰森一家》。我觉得我们正在向上移动,但我不知道是否更好。对。好吧,我觉得,好的。所以实际上,这很有趣,因为,所以艾维,我采访了里德·霍夫曼来完成这集节目的其余部分。

他在书中写道,人们过去认为,哦,人们对未来的想法,他们对未来的模式,只像《杰森一家》或《1984》那样。但实际上,事情永远不会像我们想象的那样糟糕或美好。而他的主要论点之一就是我们将塑造这项技术,而它也将塑造我们。也有一些问题。

是的。

所以这很复杂。这些是你真正能想到的一些最大的问题。我只是担心它使世界上的许多事物非人性化。所以当我们想到人工智能时,我们会想到科技、学校、教育和科学,有时我们会以好的方式思考它,对吧?它会

它可能会编写将来治愈癌症的代码,那将是不可思议的,或者它可以更好地制定东西。我们可以利用大数据做很多事情,但人工智能对普通人来说会出现的很大一部分是在色情制品中。我认为......

我们在人工智能生成的色情制品中看到的是女性和女性形象的进一步非人性化,因为你可以让AI做一些女人不会做的事情。然后你甚至可以把它标记为,好吧,这不是真人,所以我可以在某种程度上满足这些黑暗的怪异幻想,我认为这不会让我们变得更好。所以有时我会考虑某件事会让人性化还是非人性化

当你想到负责人工智能的兄弟们时,他们不是富有同情心、善良、富有爱心、以人为本、支持女性、热爱人权的人。所以拥有一个AI性爱机器人实际上是我最害怕人工智能的事情。我的意思是,与里德·霍夫曼交谈是如此有趣,因为他确实具有人文主义的视角。我确实对他说,

那么,那些没有那么重视这些伦理的人呢?

这是一个挑战。这确实是一个挑战。但我们在节目中确实讨论了这一点,并且深入探讨了对未来的期望和设想。所以是的,我希望你喜欢它。萨米独自一人完成了这集节目,因为他们不想让我问里德·霍夫曼关于AI色情机器人方面的问题。所以请欣赏。是的。看,尖锐的问题。我希望你会......

我不同意我不应该问这个问题,但我没有想到。是的,不用谢。我认为,我不知道他是否会欣赏它。我不确定。他真的很好。他非常好。非常好的人。以下是萨米对里德·霍夫曼的采访。

你好,我很高兴能在这里与LinkedIn创始人里德·霍夫曼在一起。这可能是你认识他的方式,但他远不止于此。他也是最近出版的《超级代理》一书的作者,这本书是关于我们人工智能未来的。非常感谢你加入我们。很荣幸。是的。很明显,人工智能是当今每个人都在谈论的话题。我认为我们都可以很容易地将世界灾难化,在这个世界里,人工智能毁了我们的生活。但我认为能与里德·霍夫曼在一起真是荣幸。

但你是一位相当的技术乐观主义者,尤其是在人工智能方面。所以也许让我们从最积极的观点开始吧。你能描绘一幅图景吗,也许在7到10年后,我们的生活是由人工智能辅助生活来运行的?是的。

所以,在科技行业,7到10年总是让你看起来有点愚蠢的方式,所以我可能会很快过时。但每个智能手机上都有一个医疗助理,全天候为每个拥有智能手机的人提供服务,这比今天平均高质量的GP系统要好得多。

每个年龄段的每个科目都有一个导师,并把它想象成一种通用的生活助理。它不仅仅是你今天可以做的事情,比如

嘿,我的冰箱里有这些食材。我晚餐可以做什么?或者,嘿,我要和我的家人进行一次艰难的谈话。我该如何处理?或者一个朋友失去了宠物,珍爱的宠物。有哪些好方法可以安慰或安抚他们?但也有一些关于一个与你对话多年的代理的问题,你正在说,嘿,

嘿,我在考虑我生活中的一些重大选择。这可能是工作,可能是搬家,可能是任何这些事情。而代理将是其中之一,嗯哼。

那么,比如早上醒来呢?会有某种东西可以调节我们的生活吗?这就是你的意思吗?比如,当我15年前醒来的时候,我不会首先浏览我的手机。你怎么看待我们将如何改变我们的日常节奏?人们会以同样的方式工作吗?他们会以同样的方式运输自己吗?作为接触到最相关的人,你看到了什么

最新的想法一直都在。所以用人工智能运输,自动驾驶汽车,对吧?所以我认为这将是,你知道,一件工作。我认为每个正在部署、正在工作的人都将与一组AI代理一起部署,

所以,与我们不同,例如,假设我们正在进行这次谈话,将会有一个AI代理通过你的耳机与你交谈,说,哦,也许你应该接下来问这个问题。他说过这个。这真的很令人感兴趣。与他所说的其他内容相关。这是这个特定的上下文,但每个上下文的。当我们

进行任何类型的会议时。我们将有一个正在收听的代理,它会说,哦,当你这么说的时候,也许你想和某某谈谈,或者也许我们应该通知某某,或者这可能是接下来要做的事情,或者我承诺要为你做某事。它很棒,它会给我或我们俩发电子邮件,说,嘿,还记得你说了你会以以下方式跟进吗?你现在就去做吧。

对。我有时确实希望有些事情是,就像我需要去写下一些东西一样。就像,我希望这能被写下来并完成。或者,你知道,你脑子里想做的事情。我希望它可以被翻译成输出。所以我确实看到了,你知道,显然是这些用例。而且我认为人们一直对未来的潜力感到兴奋。我认为对美国人来说,兴奋地突破界限是很正常的,

但我认为我们看到的是这种缺乏信任,你在书中谈到了很多关于信任的内容,

人们并非一定怀疑这些技术。他们怀疑负责这些技术的人。那么,你认为整个行业,我知道你显然是其中很大一部分,是否赢得了公众的信任,能够以不会在许多情况下将利润置于人类之上的方式实施这些系统?或者可能会犯一些致命的错误?

好吧,我知道该行业正在努力避免犯任何致命的错误。有很多不同的安全小组,而安全小组不仅仅是真正严肃的事情,而且还与人类利益相一致。显然,对各行各业机构的信任都处于历史低点,就像在我的一生中一样。但这不仅仅是对科技公司的信任。这也是对政府、对大学等的信任。所以,

所以说,好吧,你还没有赢得信任,这是很自然的事情。现在,我认为人们经常忘记科技行业正在做的事情之一是,我们都可以通过手机、电脑访问世界各地的信息。其中许多信息,维基百科等等,都是免费的。我们以各种方式进行免费交流。我们有一整套东西,免费翻译服务,

我们有一整套东西,基本上是这些公司提供的参与礼物。这并不意味着他们没有营利动机。但是,例如,当你从当地熟食店买三明治时,他们也有营利动机。但是,你知道,你相信你会得到一个好三明治。这实际上是事情运作方式的一部分。所以,你知道,我的观点是......

当你比较你可能从中获得的东西时,实际上科技行业的信任度与其他机构相比是合理的。是的,我认为你在书中提出的一个有趣的观点是,人们对亚马逊的评价比对最高法院、警察和军队更有好感。也许是因为这些实体未能规范大型科技公司的剥削性质。

他们会期望这些机构去做的事情。与此同时,亚马逊正在以低廉的价格快速地为他们送货上门。这使得他们的生活得以维持。然后,你知道,我认为有一种......

人们并非反对资本主义。我认为美国社会内部存在着强烈的资本主义倾向。但你是一位哲学专业毕业生。你是否从根本上相信,从一个系统中获利的人能够公平地决定该系统的伦理?

部分地,这就是我想说的。部分原因在于公司如何回应,它们非常敏感。他们不仅想要今天的客户,还要明天的客户和明年的客户。

他们对当地社区压力、媒体压力很敏感。他们不想成为做坏事争议的主题。他们有员工,员工回家后会和家人和社区交谈,他们希望为自己的所作所为感到自豪。所以所有这些问责制和治理网络都参与了公司运营的方式。现在,这并不意味着公司是完美的。这并不意味着他们没有盲点。

特别是如果一家公司正在做一些特别糟糕的事情,比如卖香烟或其他东西,在这种情况下,你可能会特别失误。

但我认为发生的事情是,每个人都喜欢谈论它,就像,好吧,如果你正在赚钱,那里一定有犯罪。就像,不,不,这就是我们构建整个社会的方式。事实上,这非常重要。你认为是这样吗?只是为了赚钱,甚至只是——我不认为人们一定反对大公司。就像我们说的,他们喜欢亚马逊。我喜欢使用这些平台。是的。

但我认为人们的担忧在于,负责的公司数量非常少。现在我认为,你知道,我想知道,如果你今天而不是去年初写这本书,你会不会写得不一样?好吧,当然不会。大选后,Deep Seek之后。哦,不,不。我会写得完全一样。其中一部分原因是,如果你回溯,称之为20多年——

只有一家大型科技公司微软,现在我们有七家,我认为我们实际上正在走向15家。这种竞争是创造廉价产品、快速交付产品等的一部分,所以不,我实际上并不担心这些的集中度,即使你今天看看公司正在建设的东西

你可以选择各种各样的AI代理。通过竞争,他们试图竞争哪个对你有好处,哪个更便宜,哪个可能满足你的需求。这是他们如何构建比,例如,民主政府更能响应个人需求的东西的一部分。

你好,Oversharing的听众们。我是Naomi Bernstein博士,有一些令人兴奋的消息。从1月13日开始,我们的Oversharing Calm the Fuck Down订阅将变得更好。订阅者将提前一天获得Oversharing剧集,以及每个月的第二个和第四个星期四的额外独家奖励内容。以下是新增内容。

一集奖励剧集,包含更多电子邮件和建议,另一集我们将与过去的电子邮件撰写者进行后续联系,这可能是你。虽然我们不会在新的一年发布新的冥想,但别担心。我们过去的所有冥想都将保留在Feed中,供您随时欣赏。此外,我们还将为Spotify听众提供新的冥想播放列表。立即注册,请访问subscribe.betches.com并选择oversharing calm the fuck down。

我们非常高兴能够创作这些新的奖励内容,与更多人交谈,倾听他们的故事,分享我们的一些故事,并提醒我们所有人要冷静下来。

你知道什么很聪明吗?在家享用您无需烹饪的新鲜美食。认识Factor,您在用餐时间规避法律的漏洞。通过轻触即可送达的厨师精心烹制的餐点,只需两分钟即可准备好。你知道什么更聪明吗?在不违反目标的情况下犒劳自己。Factor经营养师批准,由厨师准备,并由您摆盘。很聪明,对吧?使用Factor刷新您的日常活动并聪明地饮食。访问factormeals.com了解更多信息。

本集由Shopify赞助。当您将业务切换到Shopify时,忘记选择商业平台的烦恼,Shopify是全球商业平台,可增强您在任何地方的销售能力。使用Shopify,您将利用世界领先品牌使用的相同直观的特性、值得信赖的应用程序和强大的分析功能。立即注册,享受每月1美元的试用期,网址为shopify.com/tech(全部小写)。网址是shopify.com/tech。

当比赛开始时,NBA的比赛才刚刚开始,在FanDuel,美国排名第一的体育博彩公司。因为FanDuel是您进行NBA现场投注的场所,无论您想如何玩。现在是加入的最佳时机。与FanDuel一起让每一刻都更加精彩,FanDuel是NBA的官方体育博彩合作伙伴。21岁以上且在弗吉尼亚州。仅限首次在线真钱投注。需要5美元的首存。发放的奖金是非可提取的奖金投注,在收到后7天过期。适用限制。请参阅sportsbook.fanduel.com上的条款。有赌博问题?请致电1-800-GAMBLER。

所以你有一个系列节目,你与你的AI里德交谈,并向它提问。这是一个我想问它的问题,或者他。你向AI里德询问关于你自己的问题,试图,你知道,我想与它互动。你问你的AI自我关于规章制度的问题,以及AI里德对规章制度的看法,你并不反对它们。

而许多你书中称之为“Z世代”的科技行业人士,他们对这项技术超级乐观,认为它应该能够继续不受限制地发展。但你多少是赞成监管的。所以你能谈谈你对监管的立场吗?特别是考虑到很多

监管并没有奏效,而且有时它可能会以不公平的方式实施,实际上扼杀了小型公司,而不是大型公司。这就是为什么我通常反对进行监管和过度监管的原因之一。所以我赞成监管,但你应该这样做的方法是,与其想象可能出错的地方,你

你应该去看看,我们试图做的唯一能够阻止未来监管的事情是,哦,那将是巨大的影响。那将非常糟糕。那将是支持恐怖分子。那将是支持罪犯。让我们试着把这些拉回来。一般来说,我认为你应该做的方式是在你......我将直接使用这个比喻......沿着道路前进。

以汽车为例。实际上,事实上,部署汽车,允许它们驾驶,你知道,然后当它们这样做时,你说,哦,应该有安全带。然后业界说,哦,不,我们不需要。消费者不需要安全带。我们不应该系安全带。好吧。在那时,你会说,不,我们将为安全带增加监管。

这是一件具体的事情。你已经知道你在做什么了。你知道为什么市场已经失灵了,为什么消费者会说,我不太了解这种低概率的碰撞,但高概率的损害。好吧,你必须系安全带。

这就是处理监管的方式,而不是像我是一个聪明的监管者,我比这些公司和这项技术的创造者更了解这一点。所以我将规划未来将是什么样子以及他们可以做什么和不能做什么的路径,所有这些都在我的想象中。不要那样做。把车开上路,然后说,好吧,这是行业中公司失误的特定领域。他们可能会失误,顺便说一句,因为客户说,我不想这样。

但我们仍然需要这样做。让我们做具体的事情。那么,举个例子,也许是在人工智能领域或科技领域,有什么问题可以通过像安全带这样的东西来解决呢?好吧,公司已经做的一部分是如何尝试阻止这些聊天机器人?你试图让这些代理,这些聊天机器人,在各种事情上都有用。

而且,你知道,像任何一组不同的问题一样,但假设让它们在以下方面不太有用,你知道,我该如何进行网络攻击,针对一般事物的网络钓鱼攻击,你知道,比如罪犯,或者我该如何,你知道,制造某种爆炸物或其他东西?因为,不,不,实际上,

在所有提升人类案例中,那不是,但这可以被罪犯或恐怖分子做到。这就是正在发生的事情。现在,一部分,嗯,我认为,嗯,拜登行政命令所做的事情,如果

做得很好,那就是说,嘿,看,当你构建这些东西时,这不是一项规定。你必须做这些具体的事情。制定一个安全计划。说明你试图训练它以确保它避免的事情,这样当我们来问你并说,嘿,我们可以看看你的安全计划吗?就像,是的,这是我们的安全计划。这就是我们正在训练的内容。然后你可能会说,哦,你忘了炭疽病。你需要把炭疽病加进去,让我们这样做。但那种事情。或者你做得不够好,因为

你能展示一些关于你如何做得更好的质量指标吗?这就是它的迭代方式。你不需要非要说,我会创建一个43页的表格,你必须完全按照这个43页的表格来做,等等,因为这是不允许所有可能真正好的创新的一部分。对。这是我阅读时不断重复的一个问题,也是我经常思考的一个问题,

应该制定这些规则,因为你有那些公司,你知道,显然有分裂的动机,不仅仅是因为坏的原因。所以,你知道,在你看来,市场会进行某种程度的监管,因为,你知道,消费者不喜欢这些坏事。

但你也有——假设你采取了那种自由放任的态度。现在,你的思维过程是,我们想要改善人类。但你正在与那些不想改善的人竞争——不一定是。他们想为自己或其他利益改善事物。是的。

那么,你如何——我认为你,如果你是一个,哦,我想多分配一些利润,或者我想提供更好的工作条件,或者任何其他事情的人,你可能会在这个市场上输给一家可能不在乎这些事情的公司,而且他们可能愿意承担一些风险。那么你如何——

在没有外部监管者或足够了解这项技术的人或足够了解这项技术的一群人的情况下,驾驭这种环境,因为我们的立法者不了解,对任何现在在附近的人表示敬意,他们真的不了解。那么,应该如何画出一条道德界限,并说,好吧,我们将尝试解决这些问题?

所以也许最好把它说成是欧洲与美国之间的一种流程。所以欧洲监管机构试图说,嘿,我们比你们更了解这一点。我们会这样做,这意味着相对......但他们了解吗?不。相对而言,这也意味着他们没有......他们正在严重地阻碍他们自己的人工智能创造者、初创企业和公司。我已经知道了......

美国公司正在向欧洲运送他们产品的更糟糕版本,因为监管机构说,好吧,除非你用这个做了这个特定的测试,否则你不能在这里有这个产品。他们说,太好了,我们将把现代好版本运送到美国和世界其他地区,我们将把两年前的版本运送到欧洲,对吧?所以这是这种监管领域的一般问题之一。现在,话虽如此,就像

我认为拥有某种集中的控制,就像一个监管者说,我知道什么是优质的消费品,我是潮流引领者。这很愚蠢。这就是我们有市场的原因。重要的是要说,嘿,消费者是否对他们正在购买的东西、他们正在参与的东西、他们的偏好有一个很好的了解?所以一般来说,最好制定

像这里的监管一样,而不是说,在你获得我们的批准之前,你不能发布这个产品。说,好吧,你必须自己,你必须说明产品在某些问题上的作用和不起作用。你的审计员必须在你在......诚实地对待它的时间范围内判断这一点。所以你有一个诚实系数。如果你,如果,如果这被打破了,我们会找到你,但是

但这就是你获得的方式的迭代。这种模式一般来说要好得多。顺便说一句,人们会说,好吧,但这种模式可能会失败。所以每种模式都会失败。是的?零失败实际上并不是,事实上,

任何事物的目标。所以我的问题是将我们与欧洲进行比较,因为实际上,就在昨天,我看到一个视频,我认为是Facebook的Nicola Mendelsohn谈到,在欧洲甚至没有一家十亿美元公司或一家十亿美元公司的时候,美国已经有,我认为她说,六七万亿美元的公司。这很重要。但欧洲的每个人都有医疗保健。

今天,萨米邀请了LinkedIn联合创始人里德·霍夫曼,讨论AI的乐观未来,强调其改善日常生活和工作的潜力。霍夫曼谈到了公众对技术的信任、监管的重要性以及AI带来的伦理困境。他主张采取平衡的监管方法,在促进创新的同时确保安全。对话还探讨了人类是否天生善良以及AI在增强人类能力方面的作用。了解更多关于您的广告选择的信息。访问megaphone.fm/adchoices</context> <raw_text>0 欧洲的每个人,你知道,他们对食物有一些规定,在大多数情况下,这些规定使食物更健康。那么,你如何看待在以下两者之间划清界限呢,你知道,也许他们的规定很糟糕。

或者愚蠢。听着,我们对食物也有规定,这很好。事实上,我认为FDA和其他所有机构都很好。听着,我认为任何主张零监管的人通常都是傻瓜。任何主张我们应该生活在,比如监管者应该决定发生的一切的人也是傻瓜。所以这是一个判断问题,在这两种情况之间。现在,问题之一是欧洲倾向于对所有事情都过度监管。例如......

你可以用软件造成的损害数量并非零,但它更有限,更基本。你吃了坏的食物,你可能会死。有毒的食物。是的。或者以某种有毒的方式变质。我自己,我认为更社会驱动的医疗体系在某些方面更好。

但是,顺便说一句,例如,就欧洲过去10年的运作方式而言,美国经济翻了一番,而欧洲经济却停滞不前。你必须将你的经济建设到未来。顺便说一句,对此会有批评的声音。会有人抱怨。会有人争论这个,那个,或者其他。这是一个变化。这是一个风险。

是的,这是创新和未来发展的一部分。我认为这对每个健康的社会都很重要。对。我的意思是,这并不是真正的一对一比较。这些国家要小得多。这是一个不同的设置。它真的不可比较。但我确实想回到一件事,那就是......

围绕着,你知道,这样一个未来,也许AI会被真正地依赖于许多决策,或者使用算法来决定那些可能真正改变人们生活的事情。你认为在像生死攸关的情况下,如何防范AI的危险?你知道,就像认定有罪直到证明无罪一样,你知道,某些监控情况或者......

你知道,他们在错误的人身上出现了幻觉之类的事情。好吧,一个普遍的原则是,你希望你的错误率至少与目前的错误率一样好。而且没有零人类错误率。所以这就像一个经典的例子,哦,我们不应该在道路上行驶自动驾驶汽车,除非没有机会。这就像,好吧,人类在路上行驶,要好得多。

但是,例如,如果你拥有所有自动驾驶汽车,你就不会有酒后驾驶者。你不会有疲劳驾驶者。你知道,你会更有感觉。你不会有愚蠢的、糟糕的司机。是的。所有这些事情。顺便说一句,这不仅仅是为了车内人员的安全。这是为了行人的安全。这是为了所有其他人的安全。所以试图达到零错误率是一个错误。这在生死攸关的事情上也是一样的。医疗保健也是如此。许多事情都是如此。所以你想要的是......

一个比我们目前情况好,或者至少一样好并且正在改进的比率。这就是你设定的目标。对。说到幻觉,我真的很奇怪为什么我会将AI拟人化。这是......

我们试图将它人性化吗?这是什么——我们为什么要这样做?为什么不直接称它们为错误呢?好吧,人类总是会拟人化。就像我假设你也认识很多人给他们的车命名,对吧?我想人们会这么做。是的。所以这就像——这是乔治亚州。你会说,好吧。是的。

好吧,我认为这也很奇怪。所以也许我不太喜欢拟人化。我不知道。这是一个词吗?拟人化。是的,就是这样。显然,它越接近以我们所知道的方式与我们互动,

有机实体人类所做的事情,它变得越自然,这就像你说的,好吧,阅读AI,或者他,答案就像说任何一个都感觉很奇怪,你说感觉很奇怪,因为你就像,好吧,我们不是试图轻视你,你说他,但它不是人类,它不是有意识的,所以这很奇怪

我认为这是我们在发展过程中学习到的东西之一。我的意思是,我们过去常常将山拟人化,就像火山。这就像,哦,那是一座火山。她,是的。或者国家,她。是的,是的。船,她。是的,就是这样。我认为我们随着时间的推移会学习到这一点,我认为我们必须建立新的类别。就像,例如,承认智慧物种是我们星球上有价值的物种成员,只是不是人类。对。是的。

所以这是一个有趣的问题,因为你在书中给出的许多例子都是关于汽车出现时,人们感到害怕和怀疑。我很欣赏你那种中庸之道,或者只是对未来的总体展望,那就是它不会像人们预测的那样。它不是杰森一家里的飞行汽车。

而且它也不会像世界末日的情况那样,因为事情的实际发展受到事件的影响。这一切都非常,你知道,你真的不知道它会走向何方。但我认为这次科技革命与以往的不同之处在于,这次科技革命真正触及了人类的基本问题。这是什么,这几乎是一个精神问题。是的。

你几乎是在看弗兰肯斯坦的教训。那么你的担忧是什么?你对跨越那道障碍有任何担忧吗?因为人们确实认为机器会统治我们所有人。你对此有何看法?好吧,有些人认为。是的。对。我认为那不太可能成为未来。当你谈论科幻小说时,这很奇怪。他们会来抓你。是的。好吧,这就是,你知道的。如果他们要抓我,你就是第一个目标。

你低估了我们。是的。好吧......也许我是AI。没错。好吧,不,我只是希望他们先读《超级代理》。他们已经读过了。是的。但是关于AI主题的一个奇怪之处在于,你会发现很多人都在思考科幻小说中的未来,就好像......

这就像决定性的事情一样。即使是非常聪明的人在推理时也会犯的一个错误是,他们会给自己讲一个故事,然后他们就会陷入其中,这就像,哦,我的上帝,那是,那,那是,那是一个可能的真相。哦,我的上帝,我真的很担心。

我认为我们作为人类,我们不擅长,哦,看,有很多不确定性。我们甚至还不知道应该问什么正确的问题。我们对此感到不舒服,所以我们倾向于讲述一个关于它的故事。但我可以很容易地讲述一个关于未来终结者机器人的故事。我也可以很容易地讲述一个关于未来人类提升机器人的故事。

你会说,好吧,哪个......那是因为你是一个乐观主义者。不,但是......你相信人类的善良。但我可以同时讲述两者,对吧?是的。然后你说,好吧,是什么决定了它?我们现在该做什么?这就像,好吧,答案是我们一路走下去,注意它是什么。

人们说,好吧,当这些AI拥有超能力时会发生什么?我说,他们今天就有超能力。去玩玩ChatGBT吧。它拥有的知识广度是地球上任何一个人都没有的,地球上任何一屋子人都没有的。你会说,好吧,但这并不那么令人担忧。当然,是的,这并不那么令人担忧。所以有很多超级智能的AI并不那么令人担忧。

然后你会说,好吧,我们还在学习哪些其他东西?这就像,好吧,你知道,显然如果它,你知道,最终变得非常具有欺骗性,操纵人类的自主目标,并且它在自我改进,以及诸如此类的事情,你会非常担心,我们必须注意。这就像,好吧,我们如何拥有安全团队,不同的AI实验室互相交谈,说,让我们不要这样做。

但是他们会这样做吗?好吧......为了他们自己的目的,如果由想要那样的人训练。好吧,这就是我认为让目前位于西方民主国家的AI团队引领世界的原因之一。而且,你知道,即使是现在的DeepSeek。我们的时间不多了,但我只想用这个问题来结束,你认为人类大多是善良的吗?

我认为人类喜欢认为自己大多是善良的。我认为我们应该设计社会,以利用人类想要认为自己大多是善良的事实,帮助他们在日常生活中大多是善良的。你认为这如何影响我们现在正在关注的AI发展?好吧,我认为这就是为什么像这样的讨论或其他讨论说真正重要的是

AI增强了一种人类能力。这是,就像我写《超级代理》的部分原因也是为了技术人员。他们思考人类的能动性,并思考如何在其中增强这种人类的能动性。我认为这非常重要。我认为这就是为什么,你知道,从第一章开始,你知道,看,人类在聊天,对吧?

真的很有意义。绝对的。好的,最后一个真正的问题。AI正在做的事情中,你有什么建议每个人都可以利用,而我们可能不知道的吗?好吧,今天你可以用AI做的一件很酷的事情是,把你真正想要理解的东西放入ChatGPT或其他东西中,然后说,向我解释一下。你可以说,像我12岁那样向我解释。所以我一直在学习一些超出我数学能力的困难技术科目

将高级PDF论文放入ChatGBD中,然后说,像我12岁那样向我解释。我说,好吧,我明白了。像我18岁那样向我解释。好吧,我明白了。像我是一个教授那样向我解释。好吧,我现在正在努力。太棒了。好吧,非常感谢你,里德·霍夫曼。这是一次非常有启发性的谈话。一直很高兴。谢谢。

好的,所以萨米没有问到AI色情机器人。我认为我们会为另一个人保留这个问题。也许这是萨姆·奥特曼的问题,对吧?我觉得他可能更了解AI会被滥用的方式,因为他倾向于与一群19岁的实习生男孩一起玩耍......

住在地下室里。所以我们会为他保留这个问题。但我们确实学到了很多很酷的东西。但无论如何,里德·霍夫曼,一个体面的人,正在做AI,改变了我对一些事情的想法,对一些事情感觉良好,感觉好一点,安全一点。所以是的。是的。他把很多事情都摆在了正确的角度。好吧。我们会接受的。好吧,让我们知道你的想法。写信,告诉我们你关于AI的问题。也许你是一个AI机器学习者,你可以帮助我们更好地理解,比如危险是什么?是什么

能源的影响是什么?我听说进行一次Chat GPT查询需要AA电池的电量。这是真的吗?还是我只是......

在TikTok上学习错误信息。我不知道。来帮我一下。我自己只能学这么多。无论如何,我认为现在有了DeepSeek,它不需要那么多电了。所以这就是那里的壮举。只要他们不禁止它,我们就会看到。好的采访,萨米。感谢你与他聊天并将此带给我们。直到下次,我是Thee Spear。我是Sammy Sage。这是美国热梦。晚安。