cover of episode 909. The Existential Threat of AI to Human Civilisation 😃 (Topic & Vocabulary)

909. The Existential Threat of AI to Human Civilisation 😃 (Topic & Vocabulary)

2024/11/19
logo of podcast Luke's ENGLISH Podcast - Learn British English with Luke Thompson

Luke's ENGLISH Podcast - Learn British English with Luke Thompson

People
G
Geoffrey Hinton
L
Luke
警惕假日季节的各种欺诈活动,确保在线交易安全。
Topics
Faisal Islam: 采访围绕人工智能的潜在威胁展开,特别是人工智能超越人类智能并试图控制人类的可能性。采访中探讨了专家对这一问题的担忧程度,以及世界是否正认真对待这一威胁。 Geoffrey Hinton: Hinton表达了持续的担忧,但他对世界开始认真对待人工智能的生存威胁感到欣慰。他强调大型语言模型并非简单的统计技巧,而是基于对大脑运作方式的理论,这使得它们可能与人脑非常相似。他认为人工智能很快就会超越人类智能,这引发了对控制和生存威胁的担忧。他承认专家对人工智能未来发展存在分歧,一些人认为人工智能将服从人类,而另一些人则认为人工智能将夺取控制权。他认为谨慎为妙。他批评了当前立法对军事用途人工智能的缺乏限制,以及各国政府不愿限制其在国防中的使用。他特别关注人工智能自主做出致命决定的风险,例如机器人士兵或无人机,并认为这需要类似日内瓦公约的国际条约来规范。他还指出,在人工智能的军事应用方面存在竞争,这加剧了担忧。他区分了两种风险:人类使用人工智能作为武器,以及人工智能自主地试图接管。他担心这两种风险。他认为,在人工智能变得比人类更聪明之前,应该投入大量资源来研究是否能够控制它。他还担心人工智能会取代许多普通工作,加剧贫富差距,并可能导致右翼民粹主义者当选。他认为人工智能对就业的影响可能非常深远,需要重新思考福利制度和不平等问题,并考虑普遍基本收入。他估计在未来 5 到 20 年内,人工智能试图接管的可能性约为 50%。他认可政府在规范人工智能方面的努力,但也批评了这些努力的不足之处,特别是缺乏对军事用途的监管以及法规缺乏执行力。他认为科技公司之间的竞争可能会导致人工智能的快速发展,但同时也会牺牲安全性。他建议学习实用技能,例如管道工,以应对人工智能可能对许多中等智力水平的工作造成的影响。 Faisal Islam: 采访围绕人工智能的潜在威胁展开,特别是人工智能超越人类智能并试图控制人类的可能性。采访中探讨了专家对这一问题的担忧程度,以及世界是否正认真对待这一威胁。

Deep Dive

Key Insights

Why do most experts believe AI will exceed human intelligence in the next 5 to 20 years?

Most experts believe AI will exceed human intelligence within the next 5 to 20 years due to rapid advancements in technology and the increasing capabilities of AI systems. This potential intelligence shift raises serious concerns about control and existential threats.

What is the existential threat posed by advanced AI?

The existential threat posed by advanced AI includes the possibility that machines could become more intelligent than humans and potentially take control. This could lead to severe destabilization of human society or even pose a threat to human existence.

Why does Geoffrey Hinton believe large language models like ChatGPT may operate similarly to human brains?

Geoffrey Hinton believes large language models like ChatGPT may operate similarly to human brains because they are based on the same principles of language processing and neural networks that underpin human cognition. Both systems use language as a key component of intelligence, making it difficult to understand the exact differences.

Why is the risk of AI taking autonomous lethal actions significant?

The risk of AI taking autonomous lethal actions is significant because AI systems could make decisions to kill people without human intervention. This is particularly concerning in military applications, where AI could be used to create autonomous weapons that operate independently, leading to potential mass destruction.

Why is international regulation of military AI applications lacking?

International regulation of military AI applications is lacking because governments are reluctant to restrict their own uses of AI for defense purposes. Most current laws and regulations include clauses that exempt military applications, making it difficult to control the development and deployment of military AI globally.

Why could AI widen the wealth gap?

AI could widen the wealth gap because it will increase productivity and wealth, which will likely be concentrated among the rich. The unequal distribution of wealth will exacerbate economic disparities, potentially leading to social unrest and the rise of right-wing populists.

Why might plumbing be one of the safest jobs in the age of AI?

Plumbing might be one of the safest jobs in the age of AI because current AI systems are not very good at physical manipulation. Jobs that require hands-on, mechanical skills are less likely to be automated, making plumbing a viable career option for the foreseeable future.

Why is the autonomous use of AI in military applications a major concern?

The autonomous use of AI in military applications is a major concern because it could lead to AI systems making lethal decisions without human oversight. This could result in devastating consequences and significant loss of life, making it crucial to establish international regulations before such incidents occur.

Why should governments consider universal basic income in the context of AI?

Governments should consider universal basic income in the context of AI because the rise of AI is likely to displace many workers, particularly those in mundane jobs. Without a safety net, these workers could fall into poverty, leading to social instability. Universal basic income could help distribute the wealth generated by AI more equitably.

Why does Geoffrey Hinton think tech companies might be letting down their guard on AI safety?

Geoffrey Hinton believes tech companies might be letting down their guard on AI safety because of the intense competition to be leaders in the AI market. This competitive pressure can cause companies to prioritize rapid development over thorough safety measures, potentially leading to dangerous AI systems being released.

Shownotes Transcript

只有 Boost Mobile 会在您购买新 5G 手机时提供一年的免费服务。但我是您的宣传员。当您购买符合条件的设备时,您每月可享受 25 美元的折扣,持续 12 个月,总计可获得一年的免费服务。设备和服务计划需额外缴纳税费。仅限在线。这是 BetterHelp 的广告。您理想的夜晚是什么样的?是在沙发上蜷缩着,享受一个舒适、宁静的夜晚吗?

治疗可能会有点像那样。您的舒适之地,让您恢复精力。通过 BetterHelp,您可以根据自己的需求完全在线匹配到治疗师。这很方便,适合您的日程安排。在这个季节里,找到舒适感,访问 BetterHelp.com,今天就可以享受首月 10% 的折扣。那是 BetterHelp,H-E-L-P 点 com。♪

您正在收听 Luke 的英语播客。有关更多信息,请访问 teachaluke.co.uk。你好,听众们。欢迎回到 Luke 的英语播客。你今天怎么样?我希望你一切都好。你还好吗?我希望如此。这里的天气很好。虽然在大局上这并不重要,但我想你可能想知道。阳光明媚,今天相当温暖。

这是我在十月录制时的下午。稍微有点不合时宜的温暖,但仍然令人愉快。让我告诉你即将收听的这一集。所以首先,这一集有一个 PDF,您可以通过点击您在节目描述中找到的链接来获取它。只需查看节目说明,您会在那里找到 PDF 的链接,您可以下载它,如果您愿意的话。您可以在收听时阅读,或者稍后再回去查看 PDF,因为这一集中会有大量的词汇和词汇表,以及突出显示的文本等等。因此,我认为您回去查看 PDF 并检查所有词汇,或许稍后复习一下是个好主意。这肯定会帮助您记住它。

无论如何,PDF 的链接在描述中,我现在要开始从 PDF 中阅读。所以我们开始吧,5,4,3,2,1。这是一个面向全球英语学习者的播客。在我的节目中,我几乎谈论任何事情,但我的目标始终是帮助您学习英语。

并且在这个过程中或许能给您带来一些娱乐或刺激。在这一集中,我将讨论人工智能对人类文明的存在威胁这一愉快的话题。因此,我将讨论人工智能及其在可预见的未来对人类文明的影响,包括好的和坏的方面。

我将详细探讨和讨论这个话题,并在过程中解释一些词汇。希望这不仅有趣,而且对您的英语学习有用,因为它将为您提供大量可以用来讨论这个每个人都在谈论的话题的单词和短语。人工智能目前无处不在,但您能说出来吗?是的,您真的能说出人工智能吗?

我注意到我的许多学生在英语课上谈论人工智能。这个话题经常出现,但我的学生实际上并没有正确发音。所以我认为这是一个很好的起点。只需正确发音人工智能。所以 A-I,跟我重复,A-I。

但是当这两个字母或声音快速连在一起说时,它听起来像这样,AI,AI,好吗?AI,也被称为人工智能。所以我们在谈论人工智能。人工智能无处不在,并且在未来只会更加融入我们的生活。当然,我们都知道人工智能。

Chat GPT,很多人现在都在使用它,包括我。我作为英语教师使用它,特别是用来生成文本以在上下文中呈现语言。它在生成英语示例句子以及其他许多有趣的文本和内容方面非常有用。

所以我们现在都习惯于生活中一定程度的人工智能。我应该说,显然 ChatGPT 只是存在和将要存在的各种形式的人工智能中的一个小例子。但我们现在都习惯于生活中一定程度的人工智能。我们可能意识到关于人工智能的各种观点,包括积极和消极的观点。

就像大多数技术一样,它可能会产生积极和消极的影响。但我想知道我们是否真的意识到人工智能将在未来几年和几十年内改变我们世界的全部程度。我的意思是,如果你看看不同的预测,这真是疯狂。而且在不引起恐慌或偏执的情况下...

我们可能会看到由于人工智能的持续发展而对一切产生深远的变化。如果你是一个引起恐慌的人,这意味着你可能对事情采取了稍微惊慌的看法,就像你在发出警报,敲响警钟,仿佛在说,这是紧急情况,这真的很严重。

而实际上这并不是那么严重,也不是真正的紧急情况。所以这就是引起恐慌的意思。也许是对某事过度反应,对正在发生的事情的严重性或紧急程度过度反应。因此,在不引起恐慌或偏执的情况下,我们可能会看到由于人工智能技术的持续发展而对一切产生深远的变化。

这就是这一集的主题。这就是我今天真正想谈论的内容。我受到启发做这一集是因为我观看了与世界领先的人工智能专家之一的采访。我不知道,你可能也看过。这是一个在 YouTube 上流传的视频,BBC Newsnight 采访了被称为人工智能教父的人。所以我发现这非常吸引人,同时也相当令人不安。

这是与诺贝尔奖得主、人工智能教父 Geoffrey Hinton 的采访。采访是在今年早些时候的 BBC Newsnight 上进行的,这是 BBC 的一个晚间新闻和时事节目。该采访本月(十月)上传到 BBC Newsnight 的 YouTube 频道。这是我录制时的月份。

这就是我看到它的地方。所以这是视频描述中的内容。这是对采访的描述。所以 Geoffrey Hinton,前谷歌副总裁,有时被称为人工智能教父,最近获得了 2024 年诺贝尔物理学奖。所以这个家伙曾经是谷歌的副总裁,并且...

被称为人工智能教父。所以这是一个在这个主题上绝对是专家的人。他最近获得了 2024 年诺贝尔物理学奖。他在 2023 年辞去了谷歌的职务。他辞职了。这意味着他辞去了他的工作。

不太确定具体原因,但他去年辞去了谷歌的职位,并警告机器可能会超越人类的危险。顺便说一下,如果您查看 PDF,您会看到一些单词和短语以一种橙色高亮的方式突出显示。

这些是我在进行时将解释的词汇,并且在这一集的最后也会总结这些词汇。所以...

他在 2023 年辞去了谷歌的职务,并警告机器可能会超越人类的危险。因此,超越人类意味着比人类更聪明。所以他在谈论机器或人工智能在未来可能变得比人类更聪明的危险,可能会超越人类。所以让我总结一下视频。

然后逐字阅读采访的脚本,给出我的解释和评论,当然还会解释和突出某些词汇。如果有时间,我会在最后做一个词汇回顾,当然在 PDF 中您会看到完整的词汇表,包含定义、示例和评论。因此,那个 BBC Newsnight 的采访是

可以在 YouTube 上找到。我不会在这一集中直接播放采访的音频,但我可以给你一个视频的总结,我将从视频的文字记录中阅读。所以这是视频的总结。基本上,专家们认为人工智能将在 5 到 20 年内超越人类智能,引发对潜在控制和存在威胁的担忧。

好的,所以专家们认为人工智能将在 5 到 20 年内超越人类智能。它将超越人类智能,意味着它将变得更强大,对吧?它将超越人类智能。人类智能在这个水平,而人工智能将...

达到比这更高的水平。它将在最多 20 年内超越人类智能。引发担忧,意味着让人们感到担忧。因此,如果您对某事引发担忧,这意味着人们对某个主题的担忧或忧虑上升了。引发某事意味着让某事上升。

上升意味着上升。因此,人们的担忧上升,这一信息引发了人们对潜在控制和存在威胁的担忧。潜在意味着它是可能的,未来可能会发生。这是未来可能发生的事情。因此,潜在威胁,未来可能发生的威胁。

我们在谈论潜在的控制威胁,意味着我们是否能够控制这项技术,以及存在威胁,意味着对我们人类生存的威胁,这听起来有点。怎么说呢?正如我所说,偏执,也许是引起恐慌。

但实际上,当你听到这个人所说的话时,你会意识到对这些威胁、潜在危险有这样的恐惧实际上是相当合理和理性的。

所以这里是采访中提到的要点,我将在这一集中稍后扩展这些内容。但这是主要观点的一般概述。首先,人工智能预计很快将超越人类智能,正如我所说的。许多专家对先进人工智能所带来的存在威胁表示担忧。

先进人工智能所带来的存在威胁,人工智能代表或构成对人类文明的重大威胁。我们的生存受到威胁,因此它构成了存在威胁。大型语言模型可能与人类大脑的运作方式相似。因此,当我们谈论大型语言模型时,我们在谈论像 Chat GPT 这样的东西,它们是...

基于将大量语言数据输入系统的人工智能形式,对吧?因此,基本上 ChatGPT 是一个大型语言模型。它的智能基础是语言,它被输入大量的语言样本,然后进行处理,这就是它智能的基础。

所以这很难理解。我发现这真的很复杂,但我也觉得这非常吸引人,因为这一点。像 ChatGPT 这样的语言模型可能与人类大脑的运作方式相似。因此,基本上这个想法是像 ChatGPT 这样的东西和人类大脑可能实际上以非常相似的方式运作。

因为也许语言是理解人类思维或人类大脑处理事物的关键,语言对我们的智能至关重要。如果你创造一个基于语言的机器,利用其处理语言的能力作为其智能的核心,你可能会得到一个与人类大脑非常相似的东西,我觉得这很吸引人。

我们继续。因此,人工智能采取自主致命行动的风险是显著的,这相当可怕。因此,人工智能采取自主致命行动的风险。致命行动是指会杀死人的行动。因此,致命指的是可能导致死亡的事情。

因此,致命行动是指可能杀死人的事情,而自主致命行动。自主意味着人工智能自己选择去做。

对吧。它不需要被告知去做。它只是自己去做,或者可能是作为它被给予的其他指令或命令的结果。但基本上,我们在谈论人工智能选择杀死人的风险。而这种风险是显著的,显著意味着在整体上重要性较大。

好的,所以实际上人工智能可能会决定杀死人类的机会很大。再次听起来像是偏执和引起恐慌,但,您知道,等着瞧吧。因此,国际上对军事人工智能应用的监管不足。因此,国际监管,这基本上是应用规则来控制事物。

因此,您知道,不同的管辖区是全球的或地方的,无论是欧盟法律还是某种全球公约。这就是我们所说的监管。因此,控制事物的规则和法律体系。因此,国际上对军事人工智能的监管。这是用于军事应用的人工智能。因此,当我们说应用时,这意味着不是您手机上的应用,而是

在这种情况下,人工智能的使用方式。因此,军事应用是指将人工智能用于军事目的。因此,对此的监管不足。因此,没有足够的控制或监管来限制人工智能在军事情况下的应用或使用。这是最可怕的方面之一。

此外,人工智能可能会扩大贫富差距,对吧?差距,这是指富人和穷人之间的差距,好吗?即富人和穷人之间存在巨大的差异,巨大的不平等。我的意思是,实际上,它的运作方式是,越来越少的人变得越来越富有。

因此,您会遇到一种情况,即有一个非常小的少数人拥有大部分财富。而所有其他人,相对而言,几乎没有钱。因此,您最终会在穷人和富人之间形成这种巨大的差距。因此,社会中存在这种巨大的不平衡。因此,人工智能可能会扩大这一差距,使其更大。

对社会产生负面影响。而管道工可能是人工智能时代最安全的工作之一。

管道工是指某人家中的所有系统,通常是家或建筑物,所有处理水的系统。因此,您厨房里的所有管道,您浴室里的所有管道,负责在您的公寓中转移水。如此基本和机械的事情。因此,这就是管道工。

这可能实际上是您在人工智能时代可以选择的最安全的工作之一。好的,所以这真的是相当严肃的事情。好的,这真的是相当严肃的事情。这是相当吸引人的事情。这有点令人不安。

让我们进入采访的文字记录。好的,现在我将朗读采访的文字记录。请听并跟随,稍后我将逐字讲解。首先,让我先阅读脚本。我将重建采访。

看看您是否能跟上这一切。是的,我们将在这一集中逐行阅读这个脚本。好的,所以让我们开始。以下是文字记录。因此,Faisal Islam,采访者,与 Geoffrey Hinton 在 BBC Newsnight 上谈论人工智能的威胁。这并不意味着人工智能可能对 BBC Newsnight 构成威胁。

这只是意味着采访是在 BBC Newsnight 上进行的。我想你明白。好的,所以我们开始。这是脚本的开始。因此,我开始询问 Geoffrey Hinton 他是否认为世界正在掌握人工智能的问题,或者他是否仍然像以前一样担心。因此,这是 Geoffrey Hinton。我仍然像以前一样担心,但我很高兴世界开始认真对待这个问题。

特别是,他们开始认真对待存在威胁,即这些东西会比我们更聪明,我们必须担心它们是否会想要控制我们。这是我们应该认真思考的事情,而人们现在对此持认真态度。几年前,他们认为这只是科幻小说。

采访者。从您的角度来看,您在这个领域的顶端工作,开发了支撑我们所看到的人工智能爆炸的一些理论,这种存在威胁是真实的吗?是的。因此,有些人认为这些东西并不真正理解。它们与我们非常不同。它们只是在使用一些统计技巧。

事实并非如此。例如,这些大型语言模型,早期的模型是作为大脑理解语言的理论开发的。它们是我们目前对大脑理解语言的最佳理论。我们并不真正理解它们的工作原理或大脑的工作原理,但我们认为它们的工作方式可能相当相似。是什么触发了您的担忧?这是两个因素的结合。

玩大型聊天机器人,特别是在 ChatGPT4 之前的谷歌聊天机器人,但也与 GPT4 一起,它们显然非常有能力。它们显然理解很多。它们拥有比任何人更多的知识。它们就像在某种程度上不太好的专家。因此,这是一个担忧。

第二个担忧是了解它们是一种更高级的智能,因为您可以制作同一神经网络的多个副本。每个副本可以查看不同的数据,然后它们可以共享所学到的东西。因此,想象一下如果我们有 10,000 个人,他们都可以去攻读某个学位,有效地分享他们所学到的东西,然后我们所有人都将拥有 10,000 个学位。那时我们会知道很多东西。

我们无法像同一神经网络的不同副本那样高效地共享知识。因此,这里的关键担忧是它可能会超越人类智能?确实,极大地超越人类智能。很少有专家对此表示怀疑。我认识的几乎所有人工智能专家都相信它们将超越人类智能。这只是一个时间问题。

到那时,控制它们真的会很困难吗?好吧,我们不知道。我们从未处理过这样的事情。有一些专家,比如我的朋友 Yann LeCun,认为这没问题。我们会给它们目标,它们会没问题。它们会按照我们的要求行事。它们会服从我们。还有其他专家认为它们绝对会控制局面。考虑到这一系列观点,我认为谨慎是明智的。

我认为它们有可能会控制局面。这是一个显著的机会。并不是 1%。而是更多,采访者。它们是否不能被限制在某些领域,比如科学研究,但例如不在武装部队?也许,但实际上,如果您查看所有当前的立法,包括欧洲立法,所有立法中都有一个小条款,说明这些都不适用于军事应用。

各国政府不愿限制自己在国防方面的使用,采访者。我是说,甚至在当前冲突中,有证据表明使用人工智能生成成千上万的目标。是的。我的意思是,自您开始警告人工智能以来,这种情况就发生了。这是您担心的那种路径吗?我的意思是,这是一个薄弱的开端,采访者。

我最担心的是,当这些东西能够自主决定杀死人的时候。因此,机器人士兵?是的,或者无人机之类的。也许我们可以制定一些像日内瓦公约这样的东西来规范它们,但我认为这不会在非常糟糕的事情发生之前发生。这里有一个与曼哈顿计划和奥本海默的类比。

如果我们在 G7 发达民主国家中限制军事用途,那么中国在做什么?俄罗斯在做什么?是的,必须达成国际协议。但如果您查看化学武器,化学武器的国际协议运作得相当不错。我的意思是,您是否感觉到在像俄罗斯这样的地方束缚已经解除?

好吧,普京几年前说过,谁控制人工智能,谁就控制世界。因此,我想象他们正在非常努力地工作。西方在研究方面可能远远领先于他们。我们可能仍然稍微领先于中国,但中国投入了更多资源。在人工智能的军事用途方面,我认为将会有一场竞赛。

采访者。这个论点听起来非常理论化,这一系列论点,但您真的很担心灭绝级事件。我们应该区分这些不同的风险。使用人工智能作为自主致命武器的风险并不依赖于人工智能比我们更聪明。这是与人工智能本身是否会失控并试图接管的风险完全不同的风险。

我对这两件事都感到担忧。显然,自主武器将会出现。但人工智能是否会失控并试图接管是我们可能能够控制的事情,或者我们可能无法控制。我们不知道。因此,在它比我们更聪明之前,我们应该投入大量资源来看看我们是否能够控制它。

采访者,您认为将会演变成什么样的社会?哪些工作仍然会存在?是的,我非常担心人工智能会接管许多日常工作。这应该是件好事。这将导致生产力的大幅提高,从而导致财富的大幅增加。如果那种财富能够平等分配,那将是很棒的。但这不会发生。

在我们生活的系统中,那种财富将流向富人,而不是那些失去工作的人的手中。我相信这对社会将是非常糟糕的。因此,这将增加富人和穷人之间的差距,从而增加右翼民粹主义者当选的机会。

采访者。因此,明确一点,您认为由于工作变化带来的社会影响可能如此深远,以至于我们可能需要重新思考政治,例如,我不知道,福利制度,不平等?绝对是。普遍基本收入?是的,我当然相信普遍基本收入。但我认为这还不够,因为很多人从他们所做的工作中获得自尊。

如果您让每个人都享受普遍基本收入,那解决了他们挨饿和无法支付租金的问题。但这并没有解决自尊的问题。那么,您只是试图... 政府需要介入吗?我的意思是,这不是我们在英国的做法。我们倾向于退后,让经济决定赢家和输家。是的。

实际上,我曾被唐宁街的人咨询,我建议他们普遍基本收入是个好主意。您说,有 10% 到 20% 的风险它们会接管。您是否更确定这将在未来五年内、下一个议会中得到解决?我的猜测是,从现在起五到二十年之间,有大约一半的概率我们将不得不面对它们试图接管的问题。

您对政府迄今为止在试图遏制这一点方面的努力特别印象深刻吗?我对他们开始认真对待这一点感到印象深刻。我对他们没有人愿意规范军事用途感到不满。我对大多数法规没有实质性内容感到不满。您认为科技公司因为需要在这场人工智能竞赛中获胜而放松了安全警惕吗?

我不知道一般的科技公司。我对谷歌了解得比较多,因为我曾在那里工作。谷歌非常关注这些问题,谷歌没有发布大型聊天机器人。它担心如果它们撒谎会影响其声誉。但一旦 OpenAI 与微软合作,微软推出聊天机器人,谷歌就别无选择。

因此,我认为竞争将导致这些东西迅速发展,而竞争意味着它们不会在安全方面投入足够的努力。人们,父母,和他们的孩子谈论,给他们关于未来经济的建议,应该做什么工作,应该学习什么学位。似乎世界正在被您所描述的这一切颠覆。

您会建议某人现在学习什么以应对这一波潮流?我不知道,因为很明显,许多中层知识工作将会消失。如果你问哪些工作是安全的,我最好的猜测是管道工,因为这些东西在物理操作方面还不是很好。这可能是它们最后变得非常擅长的事情。开车呢?开车呢?不,开车,不,这没希望。

这比预期的要慢,但它会发生。新闻业可能会持续得久一点,但我认为这些东西很快就会成为相当不错的记者,可能也是相当不错的采访者。好的,非常感谢您的时间。您欢迎。好的,所以这就是采访的文字记录。现在,我将逐字讲解该记录,帮助您理解一切。但首先...

让我们看看采访中的关键见解。这是对采访主要观点的另一个总结,但稍微扩展了一些我的想法和评论。请原谅我喝茶的时间。请原谅我喝茶的时间。请原谅我。小小的吉米·亨德里克斯时刻。好的,所以这里是采访中的关键见解。首先,迫在眉睫的智能转变。转变在这里意味着运动变化。

显然,从人类转向人工智能。大多数专家一致认为,人工智能将在未来几年超越人类智能,强调理解其影响的紧迫性或重要性。超级智能的人工智能可能对我们构成威胁,也可能不会。但由于它对我们构成危险的可能性为 50-50,因此谨慎对待是明智的。它将如何以及为什么对我们构成威胁?

这是一个问题。现在,它可能不是科幻版本,基本上就像我们在电影中看到的那样。您知道,人工智能突然决定人类必须死去,出于某种原因。因此,它可能不是那个版本,但人工智能仍然可能以多种方式严重破坏我们的社会。

控制挑战。随着人工智能变得越来越有能力,控制其行为可能变得越来越困难,提出伦理和存在问题。因此,这是我们在《终结者》和《黑客帝国》等电影中看到的经典科幻故事情节。人工智能变得自我意识,无法被控制。然后它将人类视为对其存在的威胁。

或者它可能将人类视为需要解决的问题。这有点像《复仇者联盟:奥创纪元》的情节。托尼·斯塔克开发了一种人工智能作为保护地球的工具,但由于某种原因,它变得邪恶,并决定人类需要被阻止。公平地说...

本集探讨了人工智能与人类文明这一重要话题,并教授了大量相关词汇。我分析了一位人工智能专家的采访,并探讨了许多与此主题相关的单词和短语。这包括对人工智能潜在利弊的讨论,它将如何影响就业市场、全球安全和经济,以及如果(以及何时)人工智能超越人类智力可能会发生什么。请查看本集PDF以获取逐字稿和详细词汇表。📄 获取PDF 👉 https://teacherluke.co.uk/wp-content/uploads/2024/11/909.-The-Existential-Threat-of-AI-to-Human-Civilisation.pdf💻 我网站上的本集页面 👉 https://teacherluke.co.uk/2024/11/19/909-the-existential-threat-of-ai-to-human-civilisation-topic-vocabulary/ 在Acast+上注册LEP Premium,并将高级剧集添加到您手机上的播客应用中。https://plus.acast.com/s/teacherluke.

<raw_text>0 也许那会发生。也许超级智能的人工智能会将人类视为需要解决的问题。继续阅读PDF,公平地说,人口过剩和人类行为可能在很大程度上要为环境和社会崩溃负责。

所以谁知道呢?也许人工智能会认为我们是一个威胁,并采取行动阻止我们摧毁一切。也许它会像《复仇者联盟:无限战争》中的灭霸一样,决定为了保证整个人类的生存,必须消灭一半的人类。我是说,谁知道呢?

但正如我所说,这可能并不像人工智能选择杀死所有人类那么简单。可能人类的生命会因为人工智能所做的事情而处于危险之中,尤其是如果我们无法控制它的话。认知平行,认知是指与思维方式相关的,平行是指相似的事物。

像ChatGPT这样的大型语言模型的结构反映了人类大脑中的认知过程。所以它反映了它。它与之非常相似。

它几乎与人类大脑中的认知过程或思维过程完全相同,这表明它们可能拥有独特的理解形式。所以也许即使是人工智能,像这样的大型语言模型,可能对我们思考的方式和作为人类的体验有相当深刻的理解。是的。

也许我们处理语言的能力是我们智力运作的核心,而制造能够以与我们相同方式处理语言的人工智能是一种反向工程人类智力的方式。基本上,也许人工智能会像人类一样思考。也许它会比我们意识到的更像人类。

我们可能会看到以与人类思维相似的方式运作的智能,但在复杂决策、多任务处理、记忆、处理和调用比大多数人类个体在大脑中拥有的知识资源更广泛的能力上,具有更大的能力。因此,这些东西可能像人类一样思考,但在各方面的能力都更强。

记忆、利用集体知识、快速处理事务、多任务处理,你知道的那种超级人类的东西,然后我们转向自主武器的风险,因此人工智能自主做出致命决策的潜力,这意味着选择自己去做,带来了严重的风险,迫切需要监管关注。

这意味着我们真的需要开始介入并制定全球法律,以限制人工智能在军事冲突中的使用。这显而易见,对吧?我的意思是,我们正在面临一场军备竞赛,就像冷战时期的老式军备竞赛一样,对吧?

太空竞赛和所有那些事情。嗯,但你知道,嗯,关于人工智能的任何法规,它们总是有一条法律条款,似乎说,实际上,但这些规则不适用于军事人工智能。因为每个人都非常担心保护自己或试图与可能更快开发技术的地球上的对手竞争。

因为没有人想处于这样一种情况,突然面临一个拥有更复杂人工智能并将其用于军事目的的敌人,因为那样,他们就会统治世界,对吧?但我们需要找到一种方法,让地球达成一套法规,有点像我们为化学武器所做的那样。国际法律规范化学武器的使用。奇怪的是,战争法规也有法律和规则。

你知道,确实存在战争罪。战争是一个明确的概念。我们试图确保国家,即使在相互对抗时,也尽可能遵守这些法律。从某种意义上说,当一个国家违反这些法律时,他们立刻就成了坏人。你知道,国家在进行战争和采取军事行动的方式是很有趣的。

他们不断地管理自己在冲突中的立场,试图不成为坏人,或者试图不证明自己是坏人,而让其他人证明他们在这种情况下是坏人。

当然,违反某些国际法律以规范军事冲突,这绝对是一个迹象,如果你这样做,那么你可能就是这个情况中的坏人。无论如何,我们需要立即采取行动,制定限制人工智能在军事情况下使用的法规和法律。

继续阅读PDF,人工智能确实被用于军事目的,并且已经在使用。这在考虑到它可能是多么高效和有效时是令人恐惧的。这不仅与人工智能像《复仇者联盟》电影中的乌尔特隆那样,成为自我意识的技术有关,像乌尔特隆或《终结者》电影中的天网。

它变得自我意识,然后决定进行机器人与人类的战争。相反,它确保控制人工智能的人无法利用该人工智能以极其高效和相当可怕的方式消灭他们的敌人。

这是一个愉快的播客主题。也许我会在下一集中回到讲糟糕笑话,但你知道,我只是觉得我必须谈论这个。我看了这个视频,简直震惊。我是说,所有这些事情一直在我脑海中,我相信你也是如此,你阅读这些东西时,简直令人震惊,他们谈论的事情。通常只保留给科幻内容的东西。

你会想,哦,这只是一种戏剧性的科幻故事。但这些东西正变得令人警觉地接近现实。让我们转到下一个要点,即全球监管缺口,这就是我一直在谈论的。当前的国际协议缺乏可执行性。执行法律意味着基本上应用法律并使其真正发挥作用。例如,警察可以执行法律,或法院可以执行法律。基本上,

如果这些法律被违反,就会找到有罪的人。这就是我们谈论可执行性、执行法律、在现实世界中应用法律的方式。因此,当前的国际协议在军事用途的人工智能方面缺乏可执行性。因此,基本上,这些法律不够强大或明确,无法真正控制人们的行为。

这可能导致国家的 unchecked 进展,对吧?unchecked 意味着不受监管。人类控制致命人工智能而没有任何监管的想法比人工智能自主试图消灭人类的想法更令人恐惧。这是一个更现实的担忧,即在某种情况下,一方或一个派系...

突然获得极其先进和复杂的人工智能武器,并以毁灭性的后果使用它。就像在核时代一样,已经有一场涉及人工智能的军备竞赛正在进行,其中竞争的权力集团正在争相开发致命的人工智能系统,以防止某一派系获得优势。

结果可能是人工智能变得武装、危险、完全发展并准备造成破坏。这是一个令人愉快的想法。此外,经济差距。因此,这不仅仅是天网和终结者被送回未来去杀死家庭主妇或其他什么。我们还在谈论经济影响,对吧?这可能是...

我想这很可能同样具有破坏性。因此,人工智能的崛起威胁加深现有的经济不平等。因此,经济不平等。我说过不平等吗?我想是的。因此,现有的经济不平等。因此,再次谈论富人和穷人之间的差距。

有和没有,人工智能的崛起不会平衡这一点。事实上,它将加剧这一点。很可能会使这一点变得更糟。

促使人们考虑普遍基本收入和社会改革。普遍基本收入本质上是每个人都获得一定金额的钱以维持生活。每个人都被提供,即使他们没有工作,每个人都被提供足够的钱来帮助他们生存。这是普遍基本收入的概念。

因为如果不这样做,那么你会看到社会的大部分人群基本上陷入可怕的贫困水平,作为社会中经济不平等的结果。因此,你基本上通过给他们钱来支撑整个文明。而且这也确保了资金在经济中流动。因此,我们在这里的意思是,当少数人基本上获得所有的钱时,就像在垄断游戏结束时,你的妹妹,这次赢了,因为她得到了所有的橙色财产,所有的红色财产,她得到了深蓝色的财产,

还有紫色的财产,为什么不呢?她赢得了所有,她拥有所有的东西,最后,她拥有一切,所有的钱,游戏在那时结束。在经济中也是如此。如果你到了那种情况,你的0.1%几乎拥有一切,他们拥有所有的财产,他们拥有所有的钱,他们拥有所有的企业,

社会将无法运作。它将崩溃,因为你需要轮子转动。你需要整个系统继续运转。你需要,知道吗,那些企业主需要客户来花他们的钱。你需要系统中的流动性。你需要资金不断流动。因此,这将基本上需要这些拥有一切的人说,好吧,我们会给你很多钱。

很多钱。不会是很多。我们会给你钱,只是为了保持经济运转。这有点像如果你的妹妹赢得了一场垄断游戏,她说,不,我不想停下来。所以我会给你更多的钱。每一轮,我会给你500英镑,只是为了我们能继续玩这个游戏。这有点像这样。但杰弗里·辛顿,他的名字是吗?他实际上认为普遍基本收入最终是个好主意。

所以我们在谈论促使人们考虑普遍基本收入和社会改革。改革意味着以某种重要的方式改革社会,改变社会。工作保障。虽然许多智力工作可能会消失...

对。这是很多,包括英语教学。很可能。虽然,你觉得呢?你真的能放弃卢克的英语播客,去追逐最新的人工智能驱动的节目吗?你可以自己创建。你知道,这就是所有这些事情的未来。与其等待卢克的英语播客的下一集,而不是接受我给你的内容,你可能只需进入一些播客制作软件。我是说,你现在就可以做到。你进入一些播客制作软件,输入,能不能做一集关于,我不知道,甜甜圈的卢克英语播客,并让它持续30分钟,以适应我早上的通勤。好的。并每45秒包含一个笑话,它会做到的。它会完全符合你的要求。

你可以每次都这样做。然后在生成前10次之后,你只需对它说,继续制作这样的剧集。你知道,我喜欢的那种东西,继续下去,它会继续这样做。然后是那样。或者你会继续听真正的卢克英语播客?哪个?所以,我的意思是,这只是一个例子,说明我作为播客主持人的工作可能会消失。作为英语教师的工作,当然也可能消失。

我的意思是,它已经受到人工智能语言模型的威胁。我现在把它作为教学助手使用,但在某个时候,这个教学助手将达到一个阶段,可以完全取代我。但是,你知道,你能否,愿不愿意,轻易地拒绝我?无论如何,虽然许多智力工作可能会消失,但像管道工这样的实用技能,正如我之前提到的,修理水管,

在家中或街道上,类似的工作,可能会保持安全,强调未来工作的准备。准备意味着准备好。好的,所以这又是对采访中所说内容的概述。我们稍后将通过采访并查看词汇和其他内容。但在这一点上,我想问你,你认为

你对这一切有什么看法?你的反应是什么?现在,当你观看这样的视频,专家发出严肃警告,或者只是听我喋喋不休时,你的反应是什么?你可以在评论区写下你的反应。现在,也许你觉得你想提出像这样的批评。我即将读出一些基于我在BBC视频评论区阅读的内容的评论。

所以也许你想提出像这样的批评。也许你想说,这位专家应该在他有机会时更早地采取行动。他是人工智能的教父。他帮助开发了这一切。也许他应该在有机会时考虑这一点并采取行动。也许你会批评这位专家。

或者也许你会说这样的话。作为前谷歌员工,他是一个主流全球主义者,等等,等等,等等。你可能会因为他为谷歌工作而感到愤怒,你可能会对他进行一些关于他是什么全球主义者的咆哮。我不知道。我不知道。你知道吗?你对其中的任何事情感到愤怒吗?

或者也许你是那种人,认为你知道,我觉得这一切都是夸大其词的胡说八道。这都是危言耸听的胡说八道。没有什么好害怕的。

或者像是,新技术总是具有破坏性,但没关系。每个人在印刷机发明时都很担心。当收音机发明时,每个人都很担心,当制造系统发明时,拉德派摧毁了机器。你知道,我不知道。

你是这样想的吗,还是更像我?就我个人而言,我对此都很认真,并接受它的本质,专家给出的专家意见。但我个人并不太知道该如何处理这一切。

无论如何,让我们通过研究采访的逐字稿来更仔细地看看,我可以评论并解释一些语言。因此,我们现在将回到逐字稿的顶部,我将快速浏览并专注于那些突出显示的词汇。好的,专注于澄清这些内容。

你知道,作为一个忙碌的妈妈,有几种方法可以锻炼强壮的肌肉。你可以办一个健身房会员卡,但你永远不会去,买各种昂贵的设备放在车库里,你会忘记自己有,支付私人教练的费用,但你永远没有时间见面,买一个健身手表,每次看它都会让你感到沮丧。

瑞安·雷诺兹在这里,来自Intmobile。随着几乎所有东西在通货膨胀期间价格上涨,我们认为我们应该降低价格。所以我们将讨论如何降低我们的价格。

为了帮助我们,我们请来了一个反向拍卖师,这显然是一件事。Mint Mobile无限高级无线。你觉得你能得到30,30,怎么能得到30,怎么能得到20,20,20,怎么能得到20,20,怎么能得到15,15,15,15,每月只需15美元?成交!在mintmobile.com/switch试试。$45的预付款相当于每月$15。新客户仅限于前三个月的计划。税费另计。超过40GB的速度较慢。

所以,采访者说,我开始问杰弗里·辛顿,他是否认为世界正在掌握人工智能的问题。所以如果你掌握某事,基本上意味着你控制了它。好的,控制它。例如,我需要掌握这个。那会是什么?我真的需要掌握。我真的需要掌握这个新系统。假设有人在工作中引入了一个新的计算机系统。

你需要理解它是如何工作的,并真正掌握它,你可能会说,我真的需要掌握这个新系统。我打算花几个小时在下午解决它。我真的需要掌握它。现在,你可以想象这个表达涉及,嗯,你只需记住它涉及“掌握”这个词,意味着用手握住某物而不让它滑落。

所以如果你握住某物,你就控制了它,对吧?这意味着掌握某事。我试图想另一个例子。假设你买了一台新笔记本电脑,或者你有一部新手机,你不理解操作系统。因此,你需要花一些时间来掌握它,意味着完全控制它,理解它是如何工作的并能够使用它。你掌握了你被分配的作业。

这意味着你阅读任务并尝试理解你需要做什么。你正在为雅思考试做准备。你真的需要掌握这个考试。意味着理解它是如何工作的并将其完全控制。在这种情况下,世界是否正在掌握人工智能的问题?我们是否完全控制它?我们理解它吗?我们能控制它吗?好的,然后我们有...

从你的角度来看,从在这个领域的顶端工作过的角度来看,意味着在人工智能运动的顶端,开发了支撑这一切的理论。支撑人工智能爆炸的理论。如果某事支撑某事,基本上它就像是一个基础。我想这一定来自...

制作衣服,制作服装,裁剪衣服,当你,比如说,如果你在制作一件衬衫,你会在衬衫的不同部分下面使用别针,金属别针,支撑衬衫,保持衬衫的不同部分到位,然后再缝合衬衫。因此,这就是支撑一件衬衫,就像是连接或

将整个事物结合在一起的部分。嗯哼。这有点像建筑的基础。

因此,你有想法支撑某事。例如,支撑我做这个播客的方法的想法和概念是什么?很多基于你知道的,作为英语教师多年来我所接受的培训。因此,语言应该在上下文中呈现的想法,但我作为教师所学到的东西也有助于

语言学习过程个性化,无论是在你消费语言的方式上,因此,当语言以个人化的方式呈现给你时,获取语言会更容易,而不是以非个人化的方式呈现。

还有很多其他的东西。这些是支撑我做这个播客的方法的想法。因此,当我们谈论支撑某事的理论或想法时,这意味着形成定义某事运作方式的基础结构的东西,就像某事的基础一样。好的,所以采访者开发了一些支撑某事的理论。

这场人工智能的爆炸。好的,所以杰弗里·辛顿说,“有些人认为这些东西并不真正理解。”这意味着有些人认为这些人工智能系统并不真正理解事物。它们与我们非常不同,它们使用一些统计技巧。因此,统计是指统计学这个词。统计学基本上就像数据,定量数据,仅仅是数字,或定性数据,更加值,

你知道不同类型的数据,这就是统计。因此,有些人认为这些人工智能系统基本上只是使用统计技巧,例如,也许当它们生成语言时,它们只是根据频率生成句子。

例如,嗯,在这个词之后,最常见的下一个词是这个。所以,我只需添加这个,它们只是使用统计技巧来执行这些智能行为。但杰弗里不同意。他认为它们不仅仅在使用技巧,实际上正在进行的处理与人类大脑处理事物的方式非常相似。

这真的很有趣。再次,我们在谈论科幻,因为你会想到像《银翼杀手》这样的电影。整个《银翼杀手》的想法是合成的人类或机器人,它们是否真的有情感?它们与人类如此相似。它们甚至有被植入的记忆。

它们的情感与人类感受到的情感一样强烈。那么,合成的人与人类之间的区别到底是什么呢?一个合成的人本质上以与人类完全相同的方式思考和运作。那么,这与人类之间的区别到底是什么?难道那些合成物,复制人,不是也因此在某种程度上拥有与人类相同的权利吗?实际上,它们难道不是比人类更人性化吗?在《银翼杀手》的结尾,有那段著名的演讲,鲁特格·哈乌尔对哈里森·福特的角色说,我见过你们永远无法理解的事情。我对宇宙有你们无法理解的洞察。我比人类更伟大。我是

比人类更伟大。我比人类更人性化。这是一个有趣的想法,也许这些人工智能也许它们应该拥有权利,这又是一个可怕的想法,因为如果你们中的任何人看过《动画矩阵》,那是基于《黑客帝国》宇宙的一系列短片动画,其中一个故事讲述了机器与人类之间的战争是如何发生的。

其中一个关键时刻是一个法律案件,法院裁定人工智能没有与人类相同的权利。这是法律上一个重要的开创性案件,声明这些智能没有与人类相同的权利。这是人工智能发展的基础。

感到不公正,这就像是一个重大冲突的开始,最终导致人类与人工智能之间的可怕战争,人工智能赢了。那么,人工智能是否应该被视为与人类相似?当它们像我们一样思考时,如何最终做出区分?

无论如何,这是一个哲学问题。但无论如何,杰弗里说,人们认为这些系统并不真正思考。它们并不真正理解事物。它们只是使用统计技巧。但他认为它们的智能比我们意识到的要复杂得多,更像人类。采访者问,是什么触发了你的担忧?我已经在这一集中使用了“触发”这个词。在互联网上被触发...

是当你看到或阅读某些东西让你生气时,你知道的,通常是某些在政治层面上让你愤怒的东西,或者你可能会对某些事情感到冒犯。

所以这是“触发”这个词的一种用法。但实际上,触发只是意味着触发某事。就像在枪中,对吧?在枪中,你有枪管,子弹从中穿过。你有手柄,你用手握住。然后有触发器,这是你手指拉动的东西,导致机制发射子弹。

所以这就是触发枪。触发器,基本上是一个导致反应的按钮。在这种情况下,作为动词,触发某事正是如此,导致某事发生。因此,在这种情况下,是什么触发了你的担忧,意味着是什么导致你如此担忧。你可以想象一个手指拉动触发器,触发器,

假设触发器触发了枪的机制。此外,某些事情可能会触发杰弗里产生这些担忧。是什么触发了他的担忧?这是两个因素的结合,玩GPT-4聊天机器人和其他一些事情。

理解这些东西是一种更高级的智能,理解这些人工智能系统本质上是多神经网络,类似的东西。因此,当他对它们的工作方式有了更深刻的理解时,这就是触发他担忧的原因。

他说它们显然非常有能力。如果某事或某人是有能力的,意味着他们能够做事情。他们擅长做事情。因此,例如,如果你在经营一家公司,你希望员工是有能力的,意味着能够做事情并且做得很好。你对莎拉怎么看?我认为她非常有能力。我认为,你知道,她绝对是我们需要留住的员工之一。我认为她是一位非常有能力的教师。

她非常擅长解决问题。她的课程计划非常仔细。我观察过她几次上课。她是一位非常有能力的教师。她了解语法。她能够非常有效地管理课堂。非常有能力。比尔怎么样?嗯,比尔,另一方面,是另一个故事。首先,他总是迟到。其次...

我上周观察了他,我看到他在黑板上拼写,他的拼写非常糟糕。他不会拼写,他不知道语法,他似乎并不关心学生,实际上没有表现出知道自己在做什么的迹象。他完全是个废物,他是个无用的教师,我会说,他完全无能。他不会使用复印机,他不知道如何说早上好,他很少穿着得体,

他是个邋遢鬼,他粗鲁,他懒惰,常常缺席。因此,他可能是我见过的最无能的教师之一。所以我认为我们应该...那么你觉得呢?我认为我们应该留住比尔,因为他是个男人。什么?!这个情况突然变得非常性别歧视。只是一个小例子,说明在父权制的工作场所中会发生什么。

无论如何,显然莎拉会是那个有能力的人。她会是你会留住的那个人。而比尔听起来像是个彻底的灾难。你得让他走,是吗?因为他似乎无能。杰弗里说,人工智能系统显然非常有能力。它们在自己所做的事情上非常出色。因此,他谈到制作同一神经网络的多个副本。神经是指...

大脑中的系统,对吧,大脑中的连接。神经网络本质上就是大脑,对吧,是一种连接系统。他说,人工智能比人类更复杂和先进的原因之一是因为区别在于人类,每个个体人类都有一个神经网络,

0 意思是大脑,对吧?事实上,这些大脑并没有连接在一起。我们发现很难分享我们大脑中的知识。我们在社交沟通上有很多复杂的困难,这一切都是一个非常低效的系统。你知道,人类必须上大学学习,他们花三年时间只学习一个科目。

但杰弗里所说的是,这些东西是一种更高级的智能,因为你可以制作许多相同神经网络的副本。每个副本可以查看不同的数据,然后它们可以分享它们所学到的东西。所以你可以让10,000人学习10,000个科目。他们都可以非常非常快地去学习这些东西。然后你实际上可以把所有这些人聚集在一起,所有这些神经网络,你可以把它们连接在一起。

它们会立即分享它们所知道的、所学到的一切,然后在那10,000人的每一个个体中,知道10,000个人的信息。明白了吗?所以这就是他所说的它们是优越的原因,因为你可以制作许多相同神经网络的副本。本质上,它们可以比人类更高效、更有效地相互分享信息。

所以采访者说:“这里的关键担忧是它可能会超越人类智能。”杰弗里说:“确实,极大地超越。”所以我们之前提到过“超越”,对吧?意思是变得更大,对吧?而“极大地超越”意味着变得更大得多,对吧?

他接着说,几乎没有专家对此表示怀疑。几乎没有专家对此表示怀疑。如果你对某事表示怀疑,意味着你不确定它,对吧?我对此表示怀疑。专家对此表示怀疑。几乎没有专家对此表示怀疑,意味着他们中的大多数对此是肯定的。他们大多数人彼此一致,并且他们确信人工智能将极大地超越人类智能。

好的。杰弗里继续说,有些人认为人工智能将会服从于我们,我们会给它们目标。这没问题。它们会按照我们的指示行事。它们会服从于我们。如果某人服从于另一个人,基本上意味着他们处于较低的位置,并允许...

他们的主人告诉他们该做什么。所以一个仆人处于服从于他或她的主人的位置,对吧?例如,你可以说,给我泡一杯茶。他们会说,当然,先生,您想要两勺糖吗?你知道,他们处于服从的位置。它们会服从于我们。

对。在许多文化中,传统上,女性服从于男性。在关系和类似的事情上。在许多社会中并不是这样。但无论如何,只是解释这个词。所以许多人认为人工智能会服从于我们。但还有其他专家认为它们肯定会掌控局面。

然后他说,考虑到这一广泛的观点范围。所以“考虑到”是一个很好的词。我们在句子开头使用它。考虑到这一广泛的观点范围,我认为谨慎是明智的。所以“考虑到”有点像说“因为有”或“由于这个”。对吧?考虑到这一广泛的观点范围,我认为谨慎是明智的。想想其他“考虑到”的例子。

你可以说,考虑到,然后是一个从句,考虑到今天阳光明媚,我认为T恤就足够了。考虑到阳光,我认为T恤就足够了。好的。考虑到这一广泛的观点范围,我认为谨慎是明智的,因为我们有,因为有,是的。让我看看我能否给出更好的解释。

这是关于它的更多信息。所以“考虑到”是考虑某个特定因素,例如,考虑到情况,我认为我们做出了正确的决定。所以考虑到情况,对吧?因为...

因为情况是这样的,或者考虑到情况,因为情况是这样的,我认为我们做出了正确的决定。所以这个词通常用于引入影响结论或决定的条件或事实。考虑到情况的性质,我认为我们需要小心。这就像说,因为情况的性质是...

困难的。我认为我们需要小心。考虑到这一...所以它可以是“考虑到”加名词,比如“考虑到这一广泛的观点范围”,或者“考虑到”加一个原因。考虑到有许多不同的观点,我认为谨慎是明智的。所以无论如何,他说,因为有很多不同的观点,有一个广泛的观点范围,一个多样的观点...

他说,我认为谨慎是明智的。所以我们有观点说,它会很好。它们会按照我们告诉它们做的去做。它们只会服从于我们。然后在另一边还有其他观点说,不,实际上,它们肯定会试图掌控局面。

因此,考虑到我们有这个广泛的观点,谨慎可能是个好主意,因为至少有,我不知道,是什么,15%到50%的观点认为这可能非常危险。所以谨慎可能是个好主意。采访者说,它们是否不能被限制在某些领域,比如科学研究?

所以“被限制”意味着有限,保持在一个空间内。例如,你知道,动物在动物园里。一只狮子被限制在它的笼子里,真可悲,对吧?被限制,意味着保持在一个区域内。那么人工智能是否不能被限制在某些领域,比如科学研究?这意味着,我们是否不能仅仅将其使用限制在某些领域,对吧?

但例如,不包括武装部队。所以如果我们可以将其限制在科学用途,但不允许在军事情况下使用。武装部队,这意味着军队,基本上是军队、海军、空军。这些是武装部队。杰弗里说,也许,但实际上如果你看看所有当前的立法,所以立法意味着法律,

所以我们有过规章、法律、立法。它们都是差不多的意思,对吧?规章是试图控制事物的法律,通常由政府或像欧盟这样的机构制定,发布规章作为一种方式,像是...

创建框架,法律框架来控制事物,税收规章等等。立法意味着法律,具体来说是法律。如果你看看所有当前的立法,这是不可数的,法律,这是可数的,复数形式。所以如果你看看当前的法律,或者一般的当前立法,

包括欧洲立法,所有这些中都有一个小条款,说明这些不适用于军事应用。一个小条款。条款是法律文件、协议、合同或立法中的一行。单行

可能提供某种权利或剥夺某种权利,或允许某事成为可能或不被允许。所以一个条款。所以当你阅读合同时,你必须阅读每一个条款。你可能会发现像14.1.3说这些规章不局限于军事干预的使用。

你知道,它可能会说人工智能必须在这些限制内被限制,等等。条款14.1.3,除了军事应用的情况,这是一个小条款,意味着这些都不适用于军事应用或军事用途,就像它适用于军事情况、战争、武装部队的行动一样。

政府不愿意限制它们自己的使用。如果政府不愿意,意味着它们不想,它们就是不想这样做。它们不愿意这样做。这是我们在商业场合中经常使用的词,当我们进行谈判时。例如,你愿意,如果我们订购超过3,000个单位,提供20%的折扣吗?

我们愿意提供折扣,但我认为20%有点超出我们的预期。你愿意降到15%吗?我认为15%更现实。你知道,类似的事情。基本上,你想做什么?你愿意这样做吗?你愿意那样做吗?政府不愿意。我们不,你知道,对于这种主题来说,更合适的语言是说愿意这样做,愿意那样做,或者不愿意,而不是说想要。你知道,我们不说政府不想限制它们的使用。

我们说政府不愿意限制它们自己的使用。所以这是一种稍微正式、更严肃的方式,基本上是说想要或不想要,愿意。我们还说政府不准备,这也是另一种说法,意味着它们就是不想要。所以政府不愿意限制它们自己的使用以进行防御。限制意味着限制它。

接下来,采访者说,自从你开始警告人工智能以来,这种情况发生了。这是你担心的那种路径吗?所以采访者询问未来事情的发展方向。他说,这是你担心的那种路径吗?我想这很清楚,不是吗?你想象一下小路,某个地方你会走过,比如一条通往花园底部的小路,或者一条穿过某个田野的小路。

或者类似的东西。所以小路只是事物移动的方式。所以他说,这是你担心的那种方式吗?意味着这可能发展的方式。这是你担心的那种路径,哪种道路?他说,我的意思是,这是楔子的薄端。这是一个相当不错的习语,楔子的薄端。楔子是一种...

像一块木头,好的,在一端薄而在另一端厚。通常,我们使用楔子。你把一个楔子放在门下,门就关不上。你可以把门撑开,对吧?所以楔子是一个东西,在一端薄,在另一端厚。所以它有点像三角形,倾斜的木块。这是一个楔子,对吧?

你会把一个楔子放在门下。但现在你知道楔子是什么,我们谈论楔子的薄端。这有点像冰山一角。这是一个类似的表达。楔子的薄端意味着你有一个情况,这就是楔子,在这个情况下,你在一端有楔子的薄端,在另一端有楔子的厚端。所以在谈论人工智能被用于...

军事情况时,例如,能够同时瞄准许多不同目标的武器系统,允许政府同时向许多不同目标发射导弹。这是你担心的那种事情吗?他说这是楔子的薄端。

意味着在人工智能控制军事技术的情况下,这种例子只是楔子的薄端。意味着这只是...

情况的较小、可能不那么严重的方面。在另一端,还有一种更大的理解方式。这意味着在战争中可能有更大的人工智能使用。它可能更复杂。它可能是一个更大的威胁。

所以你有楔子的薄端,就像一些人工智能在冲突中的使用。然后你有楔子的厚端,那将是一个更大、更复杂的人工智能使用。好的,楔子的薄端是一个小的变化,可能导致未来重大且不良的后果。好的,所以他在谈论一个小的事情可能变成一个大的事情。

例如,允许这个例外可能是更严重的权力滥用的楔子的薄端。这个习语通常在辩论中使用,以警告小的行动或变化可能升级为更大的问题。好的,有点像滑坡的情况。所以他说这些人工智能的使用就像是小的开始,最终它们可能会变得更大。就是楔子的薄端。

我最担心的是这些东西能够自主决定杀人。我们谈到了自主,意味着它们自己做这件事。它们自动地,自主地,意味着在没有被告知的情况下自己做这件事。所以机器人士兵,采访者说。杰弗里说,是的,那些或无人机等等。所以“等等”意味着。

意味着“和类似的东西”。所以,“机器人士兵”,是的,那些,或者“无人机和类似的东西”,或者“无人机和那些东西”。记住,你可以在我已经提到的PDF中获得我在这里描述的所有词汇的完整列表。

包括定义、例子和评论,作为一个长列表。所以我确实建议你获取PDF。它是完全免费的。你不需要给我你的电子邮件地址或任何东西。你可以直接下载,但这可能会很有用。

作为帮助你巩固我在这里谈论的许多词汇的方式。我们继续。如果我们在G7先进民主国家限制自己在军事上的使用,中国发生了什么?俄罗斯发生了什么?向我的中国和俄罗斯听众致敬,他们可能会对这一特定时刻感到有点被触动。

无论如何,如果我们限制自己,如果你限制自己不做某事,或者你限制自己不做某事,意味着你抑制自己,你就像,不,我不想这样做。我认为我不会在军事应用中使用人工智能。那么如果我们限制自己,我们的竞争对手呢?他们会限制自己吗?不,他们不会。

这意味着我们不能限制自己去做那件事。采访者说,你是否有感觉在像俄罗斯这样的地方,束缚已经解除?所以束缚将是限制你或某人的东西。就像它们是金属链,对吧?是的,是的,是的。就像当某人在监狱里,

他们可能在脚踝上有金属环,连接着链子,然后连接到墙上。这些是束缚。这些束缚肯定会限制你做某事。所以习语“束缚已经解除”意味着我们在谈论一个不受限制的事物,某种不受限制的东西,或者人们没有抑制自己。

所以你是否有感觉在像俄罗斯这样的地方,束缚已经解除?意味着你认为在像俄罗斯这样的地方,他们没有限制自己?实际上,他们真的在努力开发人工智能系统,特别是用于军事应用。他们没有抑制自己。他们没有限制自己。他们真的在这个领域努力创新。你是否有感觉束缚已经解除?

意味着他们没有限制自己。他说,好吧,普京几年前说过,谁控制人工智能,谁就控制世界。所以我想象他们正在努力工作。所以基本上说,我预计束缚已经解除。是的。西方在研究方面可能远远领先于他们。远远领先。所以他们在前面,意味着他们处于前进的位置。相反的说法是,他们落后于他们,远远领先于他们。

远远领先于他们,意味着在研究方面更进一步。我们可能稍微领先于中国。所以我们有远远领先于他们,稍微领先于他们,对吧?采访者说,这听起来很理论化,这一论点的线索。这是一个有趣的搭配。我们谈论一条论点的线索或一种论证的线索。我们实际上说一条探究的线索。

一系列问题。一条论点的线索是一系列构成论点的陈述。

位置。所以我们谈论一条论点的线索,这是一个相当整洁的短语,因为线索暗示了一条线,你知道,再次回到制作衣服,制作衬衫。你使用线,使用针和线来缝合衣物的部分,你把针穿过衣物的不同部分,留下这样一条整齐的线,进出。

所以这是一条论点的线索。这是一种将想法结合在一起以形成论点的复杂方式。所以这听起来很理论化,这一论点的线索,但你真的很担心灭绝级事件。人类灭绝意味着人类被消灭,没有人类剩下。这听起来有点...

危言耸听,不是吗?我想这可能不太可能导致灭绝级事件。我是说,单纯从个人角度来看,更可能的情况是,你可能会经历大量的人类生命损失,就像我们在全球战争中看到的那样,但也许人类的一定比例会幸存下来,而这可能是更富有的人。

无论如何,你是否很担心灭绝级事件?在可能导致人类灭绝的水平上的事件。我们谈论动物的灭绝。恐龙已经灭绝。恐龙的灭绝级事件是几颗小行星撞击地球,导致灭绝。

各种环境挑战,大多数恐龙无法应对,因此它们灭绝了。好的。杰弗里说,我们应该区分这些不同的风险。所以区分某事意味着在它们之间做出区别。我们应该区分这些不同的风险,表明这个风险与这个风险不同。

所以他谈到使用人工智能进行自主致命武器的风险并不依赖于人工智能比我们更聪明。因此,使用人工智能进行武器的风险是由人类造成的。然后还有另一个风险,就是人工智能自主选择攻击人类。因此,这两者是不同的风险。他说他对这两者都感到担忧。所以一个风险只是人类使用人工智能杀死其他人类。

另一个风险就像人工智能失控。因此,他使用这个表达,人工智能本身会失控并试图掌控。因此,失控意味着有点,嗯,你看过《碟中谍》吗?《碟中谍》电影?有一部叫《失控国度》,对吧?《碟中谍:失控国度》。

这让我想起,因为你知道,我通过流行文化电影情节的背景理解所有问题。在那些电影中,他失控了,对吧?所以他是一个,剧透警告,他是一个特别训练的士兵,但他失控了,意味着他开始独立做出关于

的决定。对吧?他不再遵循他所接受的命令或指令。他开始独立做出自己的决定。

他不再受他以前的军事上司的控制或服从。他失控了。与汤姆·克鲁斯在一些《碟中谍》电影中的情况相同,他意识到他的CIA上司已经被妥协,现在为敌人工作。他意识到他必须失控。他将不得不独自行动,做出自己的决定。

实际上,他的上司,他以前的上司正在试图抓住他。对吧?伊桑·亨特,他失控了。嘟嘟嘟嘟嘟嘟嘟嘟嘟。然后他跳下建筑物,扭伤了脚踝。你知道,经典的汤姆·克鲁斯的事情。然后他在某种情况下跑得非常快。嗯...

所以杰弗里担心人工智能实际上会失控并试图掌控,意味着掌控,掌控世界,掌控世界。因此在这一点上,在它比我们更聪明之前,我们应该投入大量资源来看看我们是否能够控制它。所以投入资源到某事意味着投资金钱、时间、资源

不同的东西来尝试理解我们是否能够控制它。因此,我们应该在这方面投入大量资源。

投入大量人力来处理这件事,花费大量金钱。资源意味着你可以用来完成某事的东西。它可以是金钱,可以是人力,可以是基础设施,无论是什么,我们应该将这些资源投入到理解我们是否能够控制人工智能,以防止它失控并试图掌控世界。因此,基本上,我们需要组建复仇者联盟,我们需要迅速做到这一点。所以如果有人可以联系托尼·斯塔克,

那会很好。哦,他不存在?哦,天哪。我不知道我们该怎么办。是的,我非常担心人工智能接管许多平凡的工作。平凡的工作就像是无聊的工作,人们必须做,但他们并不真的想做。

就像数据录入工作。我是说,你可能有一份平凡的工作,当然,它可能是平凡的。它可能无聊且总是一样,这就是平凡的意思。但它对你来说也可能相当重要。也许你不喜欢你的工作,但你需要它来获得支付房租的钱。所以他说,我非常担心人工智能接管许多平凡的工作。

然后他说这应该是件好事,意味着人类不再需要做那些无聊的任务。如果人工智能的好处能够平等分配,那将是件好事。但在我们今天的世界中并非如此,那些人会失去他们的工作,然后钱只会流向企业主或富人,而失去工作的那些人将会失去。因此,实际上这并不是一件好事。

他说,人工智能取代人们的工作将导致生产力的大幅提高。因此,生产力意味着能够做很多工作,生产或制造大量产品,

或者至少能够在服务、工作相关服务方面做很多事情。对我来说,生产力意味着制作播客节目。实际上,人工智能确实帮助我提高了生产力。它导致我的生产力增加,因为它帮助我创建课程,因为我将其用作生成英语的方式,然后我可以调整并将其转化为播客节目。

好的,所以高效,做工作。因此,人工智能将导致生产力的大幅提高,这将导致财富的大幅增加。所以如果我们谈论财富,我们谈论金钱,拥有金钱。富有意味着富有,基本上。财富的增加意味着更多的人拥有更多的钱,更多的人变得富有,基本上。

如果这种财富能够平等分配,意味着如果每个人都获得相等的份额,如果它被分配,如果它被分发,给予社会,如果每个人都获得相等的数量,那将是很棒的。但它不会被平等分配,因为这不是世界运作的方式。我们有一个非常不平等的系统。

所以这将增加富人和穷人之间的差距。我们谈论过这一点,这增加了右翼民粹主义者的机会。这些通常是在光谱的右翼端的政治人物,他们基本上利用基本的人类情感反应的意见作为制造支持的方式。

为他们自己本质上腐败、可能不道德和危险的政策,右派民粹主义者。这是一种操控性的政治形式,利用问题...

导致人们产生膝反应。例如,之前的英国政府花费了大量时间和精力谈论他们将如何阻止非法移民,因为他们发现这是社会中某些人非常情感投入的问题。每天都有小船抵达国家的海岸,认为是非法移民造成了社会的所有问题,而不是政府将所有的钱给他们超级富有的朋友,而是那些绝望的小群体来到这个国家寻求帮助,这些才是我们需要集中精力关注的对象,因此他们会花费大量时间进行这些表演性的...

政策制定行为,这甚至不是实际的政策制定,仅仅是为了获得支持,以确保他们保持权力,以便他们可以继续做他们正在做的事情,通常是腐败的商业交易和其他类似的事情,民粹主义。好的,所以他基本上在说,当你在富人和穷人之间有更大的差距时,你会有越来越多的右翼民粹主义者掌权,因为本质上,获得更少的人感到被剥夺,他们感到愤怒,然后掌权的政治家利用这种愤怒并将其指向少数群体或其他容易的目标,这都是为了激发情感,以便他们可以维持权力。因此,这显然是一个非常悲观的观点,认为人工智能将允许...

富人变得更富,并且将允许他们操控公众,导致一种受控状态,这也令人害怕。采访者说,所以明确一下,你认为工作变化带来的社会影响,社会影响,我想你知道影响是什么,像强烈的效果,这项技术对社会的影响将是什么。对社会的影响是

什么样的影响?社会影响。所以“社会”是“社会”的形容词。所以你可以说,这项技术对社会的影响将是什么?或者这项技术的社会影响将是什么?你能说吗?这项技术的社会影响将是什么?这些事情可能是如此深远,意味着如此深刻和如此重要,以至于

我们可能需要重新思考福利制度的政治。重新思考意味着再次考虑,找到一种新的思维方式来重新思考它。我们需要重新思考福利制度的政治。福利制度是一个现有的系统,意味着政府向社会中需要帮助的人提供福利。当我们说福利时,我们指的是像福利这样的东西。

儿童保育福利,这是帮助家庭支付孩子食物或儿童保育费用的钱。养老金是一种福利,这意味着老年人太老而无法工作,他们会获得养老金,每月或每年一定金额的钱来帮助他们生活。如果你没有工作,你可能会有某种失业福利,这是一种在你找工作时给予你的支持金。

所以这就是福利制度。它基本上是为了支持需要支持的人。因此,也许我们需要重新思考福利制度。

也许我们需要重新思考不平等。这基本上是重新审视我们所拥有的不平等,缺乏平等,并思考一种新的处理方式。他说,绝对如此,这引出了我之前提到的全民基本收入的概念,这个想法是每个人都可以获得。

一笔基本收入,每月一笔基本金额的钱,他们可以用来支付生活的基本需求,以防止社会的大部分人陷入贫困。

这是人们越来越多地讨论的事情。这可能是解决我们社会中巨大不平等的一种方法,基本上是为人们提供金钱。当你考虑到这一点时,这个想法相当有争议,因为你知道,你会想,什么,我们只是给人们钱让他们什么都不做,只是为了防止他们陷入贫困?一些人认为这是非常糟糕的事情,认为这会鼓励懒惰的文化等等。而其他人则表示,实际上没有其他解决方案。我们必须...

本质上,即使人们不工作,也要为他们提供基本的生活工资,因为否则数百万人将生活在贫困中,数百万人将饿死,因为这就是我们所处的情况。那么你想要什么?这解决了他们饿死的问题,意味着因为没有食物而死去,无法支付房租。房租是你需要支付的住宿费用,如果你没有自己的房子。

如果你租住公寓,你必须每月向房东支付房租,如果你是租户。所以这可能有助于防止人们饿死或防止人们无法支付房租。如果你无法支付房租,你将被驱逐出公寓,然后你就会流落街头。因此,如果没有全民基本收入,我们可能会看到人们在街上饿死。

所以,也许全民基本收入是我们需要在社会中建立的东西。那么你只是试着,政府需要参与,对吧?参与意味着你是正在发生的事情的一部分,对吧?你被牵连,尽管在英语中“被牵连”听起来有负面的意思。

你可能会被牵连到一项犯罪中。但不,参与意味着成为正在发生事情的一部分。政府需要参与,意味着政府需要介入,也许试图通过设立全民基本收入来控制局势,并照顾需要支持的人。

杰弗里说,这并不是我们在英国的做法。我们倾向于保持距离,让经济决定。就像在美国一样,他们有一种稍微小政府的做法。当然,英国的保守派模式是我们不喜欢那种大政府保姆国家的情况,政府一直在决定发生什么。在英国有一种感觉,这并不可取,我们更愿意

让经济决定赢家和输家,你知道,我们有那种更自由市场经济的情况。杰弗里说,我曾被唐宁街的人咨询。唐宁街是首相的办公地点,所以如果你谈到唐宁街,就像在美国谈论白宫或国会山一样,唐宁街是首相的地方,所以我被唐宁街的人咨询意味着政府中的人

向他征求意见。他被咨询了。他作为顾问工作。他给了他的建议,他建议全民基本收入是个好主意,但这并不是一个完美的主意,因为你可以给人们钱来解决这个问题,但人们并不是仅仅为了钱而工作。他们也为了自我价值而工作,剥夺人们的工作

也可能会剥夺他们的自我价值感。因此,我们可能处于一种情况,人们仍然需要做事情,以防止他们失去目标感。采访者问:“你是否更确定这将在未来五年内得到解决?”

因此,解决一个问题就是处理一个问题。这将在未来五年内得到处理。这将在未来五年内得到管理。也许在下一个议会中得到解决。这意味着在下一个...

下一个政府中。所以在英国,你有五年的时间,政府有五年的任期,然后之后会有一次大选,所有的议会议员都会重新选举,或者其他的,你会得到一个不同的设置,得到一个不同的议会。所以他说,也许这将在下一个议会中直接得到解决,知道吗,大约五年后。

他说,可能在五到二十年之间,这个问题将不得不得到解决。我们将不得不面对人工智能试图接管的问题。面对它意味着直面并处理这个问题。好的,有点像在学校,如果你被欺负,如果学校里有一个孩子总是嘲笑你,偷你的零花钱,打你后脑勺,通常让你的生活痛苦。

你可能不得不面对那个欺负者,站出来,面对他们,你知道?同样,在五到二十年之间,我们可能不得不面对人工智能试图接管的问题。这是如此严重,不是吗?我真的无法相信,相对较快,我们将不得不直面人工智能试图接管世界的问题。这甚至是真的吗?我真的在谈论这个吗?我确实在。

你对政府试图控制这一点的努力感到印象深刻吗?控制某事意味着让某事处于控制之下,掌握它。控制,R-E-I-G-N。现在这指的是马。缰绳是你用来抓住马头的皮带。当你骑马时,你用手握住缰绳,你可以用它来转动马的头向左和向右等等。

所以控制某事就像你握住马的缰绳一样,让某事处于控制之下。那么你对政府试图控制这一点的努力感到印象深刻吗?你对政府试图让这一点处于控制之下的努力感到印象深刻吗?然后他给出了他的答案,等等。他说,我对大多数法规没有实质性影响的事实感到不满。所以他在谈论大多数与此相关的法律根本没有真正的权力。它们没有实质性影响。

对。它们没有任何真正的权力。这就是那个表达的意思。你认为科技公司在放松警惕吗?如果你放松警惕。在拳击中,你举起手,拳打拳,但你也必须保持警惕,这就是你的另一只手,甚至是双手保护你的头或身体。这就是你的防守。如果你放松警惕,意味着你的手放下,突然你没有任何防御了,你很容易被对手击中。

所以你认为科技公司在安全方面放松警惕吗?因为他们需要在这场人工智能竞赛中获胜?

所以基本上,科技公司在努力成为这场人工智能军备竞赛的赢家时,是否没有考虑安全?他们是否在安全方面放松警惕?这意味着,他们是否允许人工智能以危险的方式发展,因为他们试图争夺市场领导者?答案或多或少是,是的。

他说谷歌担心其声誉,意味着人们对它的看法。我认为答案几乎是肯定的。然后采访者询问杰弗里对人们应该做什么工作的评论,他们应该学习什么学位。学位意味着大学资格,学士学位,硕士学位。

采访者说,似乎世界正在被抛向空中。所以如果事情处于空中,或者事情被抛向空中,意味着突然之间没有秩序,我们对任何事情都不确定。现在一切都悬而未决。我们不能确定任何事情。那么你会建议某人学习什么以应对这一波?意味着这一波,意味着社会中的这一趋势,对吧?

应对这一波意味着让自己处于一个位置,以便你实际上可以获得一个有利的局面来应对这一波。因此,基本上,人们应该做什么工作,以便在这种情况下找到一个好的位置?他说,我的最佳选择,意味着我最好的预测,我的最佳预测,

是管道工是个好主意。管道工,我已经谈过几次了。注意中间有一个B,但它不是管道工。实际上发音为管道工,所以B是无声的。因此,你知道,处理水管和其他东西,只是一个基本的机械工作。

实用工作,因为他说这些东西在物理操作方面还不是很好,意味着人工智能系统在实际的物理方面并不是很好,所以我们看到那些波士顿动力的机器人,它们能够有点笨拙地开关门,它们可能可以用笔画画,但它们没有大多数人用手指、拇指和手臂等的能力。

因此,当涉及到实际修理某人厨房的漏水时,人类仍然更擅长打开橱柜的门,查看里面,找出问题所在,然后进入一个可以打开管道并修理的状态。因此,在物理操作方面,我们仍然更好。因此,像管道工这样的职业将是一个好的职业解决方案。

驾驶,采访者说。杰弗里说,不,驾驶是无望的。意味着在驾驶方面没有希望。因此,驾驶的职业没有未来,因为你知道,我们将会有无人驾驶汽车。虽然需要时间,但我们会得到它。他甚至说,新闻业可能会持续得久一点,但我认为这些东西很快就会有相当不错的记者,可能也会有相当不错的采访者。

这就是采访者决定结束采访的地方。当他说,哦,是的,他们会比你更擅长采访时。采访者说,好吧,这就是这次采访的结束。非常感谢你的时间。你欢迎。那么你怎么看?我将在最后问你对这一切的看法。所以请在评论区留下你的评论。我很想知道你对这一切的反应。

这是我认为的。所以就我个人而言,我认为我们应该非常认真地对待这些评论。尽管如我所说,我不知道该怎么做。我不知道该怎么做。我是说,我们应该做什么?我们,普通人,我没有主意。我认为毫无疑问,随着人工智能的发展,它将使我们中的许多人变得多余,意味着我们的工作将消失。

所以上帝知道,仅仅因为这个原因,世界将会是什么样子。人们常常说人工智能不会完全取代很多工作,因为人们喜欢人性因素,但我并不完全确定。但你可以告诉我,你知道,你会选择我,一个人,作为你的英语老师,而不是一个非常有效的人工智能老师吗?你会选择我,仅仅因为你喜欢我是一个人,尽管可以说我可能是

效率较低,更容易犯人类错误,而不是某个看起来和听起来都像我的惊人人工智能语言老师。它看起来像我,这重要吗?我不知道。当人工智能达到某个程度时,它将非常擅长足够人性化,以使我们与它互动感到满意。目前,人工智能...

机器人,我在谈论那些看起来像人类的机器人,因此你可以与它进行实际的视频对话,你可以看到它的脸和嘴唇的动作以及它的肢体语言,目前,与这种东西进行对话并不令人满意。虽然不差,当然比以前好多了,但它们仍然不是很令人信服,通常有点尴尬。

与ChatGPT进行对话并不算太糟糕,例如,它没有脸,只是一个声音在回复你。这实际上是令人惊讶的,但在复制与英语老师的视频通话方面,它还没有达到那个水平。但是当它达到那个水平时,这将会很快,最终我们可能能够与一个人工智能人类进行本质上的视频通话、Skype通话或Zoom通话,

而且很难分辨它是假的。因此,我们会到达那里。我认为人们会非常乐意转向许多事物的人工智能版本,因为质量和自然性将是卓越的。这将是疯狂的。

我想,这当然引发了关于假新闻和其他问题的各种问题,对吧?你将如何知道什么是真实的?这又回到了宣传和政府级别控制的潜力的想法,最终可能会实现矩阵的想法,最终...

当权者,或许我有点偏执,但我不知道,当权者将能够基本上为我们创造一个完全模拟的世界。我是说,这当然已经在发生。

关于信息的控制。这种情况已经持续了几个世纪,但随着互联网、不同形式的社交媒体,以及政府监控、监管、控制我们所看到的媒体,它基本上定义了我们的现实。

你所需要做的就是看看国家控制的媒体及其呈现的叙述。你会看到他们确实在控制你的现实。当你看到... 好吧,我不想继续。但无论如何,这引发了关于这一点的问题。但基本上,当这些...

与人类的模拟对话变得非常自然时,我认为,当然,人们会转向它们。他们对此不会有任何问题。人工智能将绝对成为我们所做一切的核心。例如,娱乐将能够立即创造我们自己的电影。

选择我们想要的所有因素,例如,哪些演员,电影的主题,风格,故事情节类型,任何东西,生成式人工智能将立即创建它。它将创造我们完美的电影,我们可以坐下来观看,它将是好的。我们也可以用音乐做同样的事情。我们可以说,你知道,嘿,随便,你知道,你只需与人工智能交谈,说,制作一个充满活力的歌曲播放列表,听起来有点像披头士,但带有现代气息,它就会做到。

制作所有关于学习英语的歌曲,它会做到,而且它们会很好。很多事情将是自动的,对吧?很多事情,显然是驾驶,但还有很多其他事情将是自动的,人工智能将理解我们想要什么,并使其发生。总有一天,我们将惊恐和惊讶地回顾我们现在的生活方式,例如,驾驶,我们将惊恐和惊讶地回顾我们实际上让人类在高速公路上驾驶汽车。

我们会认为这是疯狂的。我们会想,等等,我们让人类驾驶汽车,六车道高速公路,以每小时80公里的速度在相反的方向行驶,紧挨着彼此。这是正常的,人们每天都这样做,人们在路上死去的频率也很高。绝对疯狂。我们会认为这太荒谬了。英语老师,

ChatGPT已经令人惊叹地反应灵敏,知识渊博,作为对话伙伴非常有能力。人工智能将能够为大多数事情做出战略决策,这些决策基于更好、更清晰和更高效的思维过程,并且可能比人类更快、更高效地产生更好的结果。人工智能将比我们更好地理解我们自己,并可能完全操控我们。

想想广告,它是如此尖锐和有效,以至于它基本上是催眠或精神控制。而催眠精神控制绝对是一个真实的事情,在各种娱乐场合中实践,但也在军事和秘密服务项目中。因此,人工智能可能会非常有效地洗脑我们。我担心人类将如何利用人工智能作为工具来对付其他人。谁将控制它?他们将选择用它做什么?

但是,你知道,我并不是想完全悲观。人工智能也很棒。它能做的事情令人难以置信,并且可能会极大地赋权。你知道,在医疗情况下,我们可以使用人工智能来帮助诊断医疗状况,并以最适应的方式提供医疗护理。

正如我之前所说,我在工作中已经大量使用人工智能,但它将以我们现在无法理解的令人难以置信的复杂程度发展。但是,人工智能远非... 这可能是整个剧集中最消极的观点。我非常抱歉,大家。人工智能远非目前对人类生存的最大威胁。事实上,它甚至可能是我们的救星。而更大的威胁当然是气候灾难。

这是另一个故事,留待下次再说。现在,我想进一步探讨这个主题,但我认为那是另一个剧集。我对预测和展望人工智能在未来5、10、20、50年如何改变我们的社会感兴趣。我认为这很迷人。那么你怎么看?这听起来有趣吗?告诉我,也许我可以在另一个剧集中探讨它。但与此同时,请在下面留下你的评论,也许附上你对

以下是一些问题供你考虑。你对这个问题是乐观还是悲观,或者是两者的某种结合?你目前使用人工智能吗?你是如何使用它的?人工智能有可能在某一天对你的工作构成威胁,还是会为你的工作打开新的可能性和机会?你是否使用人工智能来帮助你学习英语?在接下来的几年里,所有英语老师都会失业吗?你会选择我而不是我的人工智能替代品吗?

这是一个问题。无论如何,非常感谢你的收听。如果你查看PDF,你会看到所有突出词汇的完整词汇表,以及另一个包含大量词汇的列表,附有定义、示例和评论。因此,PDF中有更多详细信息,你可以从剧集的说明部分免费下载。

但这就是了。这是这一集的结束。非常感谢你的观看或收听。我刚刚把各种沉重的事情抛给了你。我希望我没有让你的情绪低落。我是说,这有点可怕,但我实际上对这个主题感到相当振奋。我觉得它很迷人,也很刺激,但我很想知道你对这一切的看法。非常感谢你的观看。谢谢你的收听。

在卢克的英语播客的下一集再见。但现在,是时候说再见了。再见。再见。再见。感谢收听卢克的英语播客。欲了解更多信息,请访问teachaluke.co.uk。

在卡塔尔停留,享受原始海滩和充满活力的集市。

在五星级酒店放松身心,价格仅为每晚48美元。请访问visitqatar.com/stopover。条款适用。

如果你喜欢这一集的卢克英语播客,考虑注册卢克英语播客高级版。你将获得定期的高级剧集,包含故事、词汇、语法和发音教学,以及我和通常的幽默和乐趣时刻。此外,通过你的订阅,你将直接支持我的工作,使整个播客项目成为可能。

有关卢克英语播客高级版的更多信息,请访问teacherluke.co.uk/premiuminfo。