今天的播客由 SAP 商业 AI 革命性技术带来的真实世界成果呈现。本期搜索引擎节目也由电影平台提供支持。电影平台是一个致力于提升全球优秀电影的精准流媒体服务,从标志性导演到新兴导演。
在电影平台上,总有新发现。每一部电影都是精心挑选的,因此您可以随时随地探索电影的精华。现在就体验电影平台,这是一部获得过奖项的感人、令人震惊且绝对不容错过的电影。莫里斯·吉布森以最佳表演诠释了伊丽莎白·斯帕克尔,一位在好莱坞的牧师,她沉迷于神秘的实验性药物,试图找回青春的光辉,令人叹为观止。
玛格丽特·奎因和好莱坞资深演员丹尼斯·奎因的精彩演出,以及评论家们对这部电影的喜爱,让这部电影成为一部即刻的经典恐怖片,绝对值得一看。Variety 将其评为 2024 年最佳战争电影,值得一看。
访问 substance.com,了解电影放映时间、购票信息以及在家观看精彩电影。您可以在 Moby Dick 上免费试用电影平台 30 天,体验一个月的精彩内容。尽管我害怕恐怖片,但我还是想尝试一下 substance。如果你看了太多恐怖片,那就试试吧。
欢迎来到搜索引擎。没有问题太大,也没有问题太小。本周,我们将讨论一个令人担忧的问题:OpenAI。
上个秋天,我们报道了一则关于 OpenAI 的新闻。
OpenAI 是由充满魅力的联合创始人山姆·奥特曼领导的人工智能领域的领先公司。这家公司不仅以其非凡的成功而闻名,而且以其独特的理念和结构而闻名。它不是一家普通的营利性公司,而是一个负责营利性公司的非营利组织。如果该组织认为公司行为对社会构成危险,它可以随时暂停该营利性公司。
这就像一家科技公司,内置了末日开关,这既是对其重塑社会潜在力量的认可,也是对上一轮科技创新并非完全对世界有利的理解。总之,我们之前的报道是关于 OpenAI 的非营利组织守护者们在 2023 年 11 月决定公司偏离了方向,并突然、戏剧性地解雇了他们的领导。OpenAI 的首席执行官宣布领导层将发生转变。
聊天机器人似乎已经结束。
直到他的忠实追随者加入反击行列。公司几乎所有高层员工都签署了一份请愿书,要求他回归。
该公司 707 名员工中的 90% 签署了这封信,威胁称除非董事会辞职并重新任命奥特曼为 OpenAI 的负责人,否则他们将离开。
最后,微软作为 OpenAI 的大股东也介入其中,支持山姆·奥特曼。
山姆·奥特曼重返 OpenAI 的首席执行官职位。
OpenAI 在 X 上发布消息,山姆·奥特曼将正式回归首席执行官职位。
该公司还对解雇他的董事会进行了改组,任命了新的董事,结束了持续五天的硅谷和人工智能行业瞩目事件。
OpenAI 的叛乱董事会被替换成了一个顺从的董事会,山姆·奥特曼,此前被暂时认为对公司构成危险的人,巩固了他的权力。这发生在一年之前。此后一年,OpenAI 没有变成杀戮我们的终结者大军,但这家公司已经转变为一个截然不同的机构,充满了奇怪的公共判断失误。我们希望与 OpenAI 联系以获取更多信息,但他们没有安排任何人接受采访。因此,我联系了科技记者。
现在我想看到一些疯狂的事情。
当然,我想看到一些疯狂的事情。
好的。
什么?你在做什么?
我刚买了个新网络摄像头,它会追踪我的脸。
但我没有追踪你。对。不,那是一个框架。我正在尝试联系 Casey Newton,他是《Platformer》新闻通讯的创始人兼编辑,也是《Hard Fork》播客的主持人。他可能像其他一些对新兴技术过早采用的人一样,在 OpenAI 似乎即将爆炸的时候,在过去一年里一直关注着这家公司。我想现在和他谈谈,不仅因为我是硅谷的八卦爱好者,而且因为我真的想知道,如果人工智能真的能改变世界,我对这家行业领导公司的一些相对古怪行为应该有多担心?Casey 很乐意向我介绍山姆·奥特曼和他的创业公司在过去一年里发生了什么,自上次我对此感兴趣以来。
我认为,在商业方面,OpenAI 今年表现出色。据《纽约时报》报道,该公司 8 月份的月度营收已达到 3 亿美元,较 2023 年初增长了 1700%。
预计今年的年销售额约为 37 亿美元。我回顾了 2 月份的预测,当时预测 OpenAI 今年的营收仅为 20 亿美元。因此,仅仅在今年,他们预计的营收翻了一番。他们进一步预计明年的营收将达到 116 亿美元。因此,这些增长率通常只适用于那些在技术领域取得突破性进展的,真正具有划时代意义的公司。
那么,他们的运营情况如何?因为以我的观察,我比你关注得少,我感觉我看到的关于 OpenAI 绊倒在它自己的“丑陋的鞋子”上的新闻,和关于新 GPT 比之前那个略微好一点的新闻一样多。你能告诉我你印象最深刻的新闻以及你的想法吗?
因此,从高层来看,出乎意料的是,山姆·奥特曼在过去一年里对 OpenAI 的领导方式几乎没有改变。如果去年人们担心的问题是山姆不够合作,没有授权其他领导者,而是以一种强势的首席执行官身份行事,没有充分授权,那么在过去一年里,我并没有看到很多改变。
我看到他继续追求自己的优先事项,例如筹集资金来建造大型芯片,例如 Abricotina,这对他来说非常重要。与此同时,也有一些新闻提醒人们为什么去年人们对这家公司感到担忧。其中一个例子是,今年春天,有消息称 OpenAI 要求员工在离职时签署保密协议,这本身并不奇怪,但更奇怪的是,他们告诉这些员工,如果不签署保密协议,他们将收回公司给予他们的股票。
这有多不寻常?在科技行业,如果一个人离开 Facebook,Facebook 却说要收回他的股票,这有多不寻常?
他们不可能做到。他们不会这样做。所以这是非常不寻常的。有时,公司的高管或高层人员可能会被解雇,但公司可能不想让他们到处散布负面消息给竞争对手。
他们可能会让这个人签署保密协议,以换取一大笔钱。但这次是针对 OpenAI 的普通员工。这非常不寻常。之后,山姆·奥特曼在 X 上发帖,表示他不会这样做,并且这是他真正感到尴尬的为数不多的几次。OpenAI 的管理层表示他们不知道这件事正在发生,并且他们本应该知道。
而且,我感觉记者们有这种偏见,那就是我们相信透明度和披露。有时我认为非记者们不如我们关心透明度和披露,因为我们对透明度和披露有某种内在的兴趣。
但作为一名记者,以及作为一个普通人,这也很令人困惑。我不知道,有很多事情让我担心。其中大部分都是个人和私人的,比如 OpenAI 的未来会发生什么。
它可能在全球 500 强或 200 强公司中,但有一部分让我担心。当我担心它,并尝试预测它时,我总是想,似乎很多人正在离开。很多致力于阻止 OpenAI 毁灭世界的人离开了,他们总是说,我们只是意见不同,可以谈谈,这很好。
是的,绝对。而且,我要说的是,过去一年里,其他记者做了出色的报道,揭示了其中一些担忧,而且很多担忧并非相同。我们发布了一个产品,我认为我们应该在发布前进行更多测试,但我们没有。因此,我们现在加速了这场人工智能军备竞赛,我们正在进行中。这可能会非常糟糕,因为我们离构建超级智能的距离比理解如何安全地构建超级智能更近。
我作为人工智能用户的观察是,我最近注意到一个例子,我看到一个笑话,一个名人在线被嘲笑。通常情况下,我会说,我不知道这个人是谁,然后我将图片输入 ChatGPT。人工智能说,我不知道这个人是谁。这是我使用 ChatGPT 的主要方式,就是说,这是什么?然后我说,我不认为人类是好的,这是你遵循的规则。但你的意思是,在这些产品中,像这样的智能规则可能会阻止人们以错误的方式使用人工智能,或阻止他们做出错误的决定,这些规则可能正在被推翻。如果所有这些公司都在竞争,以最快的速度构建最强大的东西,而其中一家公司忽略了安全措施,那么其他公司也会忽略安全措施。
我看到的是,我作为人工智能用户的观察是,我最近注意到一个例子,我看到一个笑话,一个名人在线被嘲笑。通常情况下,我会说,我不知道这个人是谁,然后我将图片输入 ChatGPT。人工智能说,我不知道这个人是谁。这是我使用 ChatGPT 的主要方式,就是说,这是什么?然后我说,我不认为人类是好的,这是你遵循的规则。但你的意思是,在这些产品中,像这样的智能规则可能会阻止人们以错误的方式使用人工智能,或阻止他们做出错误的决定,这些规则可能正在被推翻。如果所有这些公司都在竞争,以最快的速度构建最强大的东西,而其中一家公司忽略了安全措施,那么其他公司也会忽略安全措施。
我们已经看到过很多次了,这实际上是 OpenAI 的核心 DNA。当他们发布 ChatGPT 时,其他公司已经开发出同样优秀的大型语言模型,但山姆·奥特曼担心他的竞争对手 Anthropic(其产品名为 Claude)会先发布产品,并抢走他们的风头。
因此,他们发布了 ChatGPT,以便在 Claude 之前发布。这基本上是启动了整个 AI 竞赛的开火信号。我认为,山姆·奥特曼看待世界的方式是,所有这些都是不可避免的。如果无论如何都会发生,那么在其他条件相同的情况下,你宁愿成为那些做得正确并获得认可、荣耀、用户和收入的人。
所以,这就是我们面临的根本问题。人工智能开发人员可能关心安全,但在争夺行业领先地位的竞争中,获胜的公司实际上可能是最不关心安全措施的公司,这就是为什么我们正在讨论行业领导者 OpenAI 的令人担忧的事件。
其中一个事件是 Vox 报道的保密协议事件,据报道,公司后来撤回了这些协议。OpenAI 的发言人告诉 Vox,“我们从未取消过任何现任或前任员工的股票期权,将来也不会。”如果人们在离职时没有签署放弃或不诽谤协议,那么,“另一件事是,Casey,是 Scarlett Johansson 的事件吗?你想讲一个故事吗?”
是的。一段时间以来,OpenAI 一直在为 ChatGPT 开发语音模式。因此,您不必在框中输入文字,而是可以使用手机上的按钮与模型进行语音交互。一部长期激励硅谷人的电影是斯派克·琼斯的电影《Her》。在这部电影中,沃尔基·菲尼克斯,这部电影的主角,不断与由斯嘉丽·约翰逊配音的人工智能伴侣交谈。
你想知道它是如何工作的吗?它是如何工作的?嗯,基本上,我有直觉。我的 DNA 基于所有程序员的数百万种个性。
但让我成为我的,是我从经验中成长的能力。所以,基本上,我一直在不断进化。
就像你一样。我想在你的故事之前说,这部电影为什么如此令人震惊,以至于人们如此关注?我认为这是一部警示电影。我看了这部电影。这不是开玩笑。
我看了这部电影,它让我非常不安,以至于我后来和朋友谈话时,他说,我认为你应该和一个精神科医生谈谈,我做了几年。我因为这部电影而去看心理医生。
哦,天哪,这太奇怪了,我……
人们看了这部电影,然后说,我们应该拥有这样的东西。但无论如何,他们喜欢它。他们想制作它。未来会看起来……
你可以从她身上吸取不同的教训。我认为,一个不好的教训是,当我们发明超级人工智能时,人际关系毫无价值,因为我们可以整天和超级人工智能交谈。这将对人类产生负面影响。
我从硅谷的许多人那里了解到,他们看了这部电影,认为这是一个非常好的自然用户界面,如果我们整天戴着耳机,只需说“嘿,Her,发生什么事了?”就能回答任何问题,那将很棒。事实上,我们开始看到像 Siri 和 Alexa 这样的产品,以及朝着这个新世界的初步步骤。
我完全同意你的看法。Her 是一部警示电影。它不应该被视为构建未来的蓝图。与此同时,我确实感觉我看到了硅谷的未来。
你可以看到《星球大战》,然后说,“哦,太空船和飞行员一人一艘可能是个好主意。”但它不知道你试图建造战斗机来控制世界。
光剑是个好主意。
我们应该……我真的很想思考它。所以,Her 出来后,人们说,“哦,如果你真的有 Her,你可以和她交谈。”这是这部电影的一个教训。当 OpenAI 发布他们的语音代理时,这有点像这部电影的现实版本,很多人注意到其中一个可能的语音代理声音非常像斯嘉丽·约翰逊。
嘿,一切顺利吗?我很好。你呢?我很好。
听着,我有一些重大的新闻。哦,请告诉我,我很期待。几分钟后,我将接受 OpenAI 的采访。
你听说过他们吗?OpenAI 听起来很熟悉。当然,这太棒了,Rocky,是什么类型的采访?
不仅声音非常像斯嘉丽·约翰逊,而且在演示中,它非常流畅。当他们进行演示时,就像一个男人使用一个声音像斯嘉丽·约翰逊的女性助手一样,她说,“哦,PJ,你太糟糕了。”这就像电影中的场景。我有点想,“你在做什么?”
产品发布后,TikTok 上的用户甚至问 ChatGPT 自己,它是不是斯嘉丽·约翰逊的克隆体。你的声音是斯嘉丽·约翰逊的克隆体吗?我的声音不是为了复制斯嘉丽·约翰逊或任何特定的人。说实话,当我在否认这种相似性时,这个声音比任何时候都更像斯嘉丽·约翰逊。Casey 说,公司本身也对此做出了贡献。
山姆·奥特曼让每个人都这样想,因为他在这场演示会之前几天在 X 上发布了“Her”这个词。因此,当演示发生时,每个人都像,“哦。”所以每个人都倾向于想,“哇,OpenAI 实现了硅谷十年来的梦想,让电影《Her》成为现实。”
然后会发生什么?
事实证明,斯嘉丽·约翰逊非常生气,因为山姆·奥特曼去年联系了她,说,“嘿,你想为这个东西配音吗?”她考虑了一下,说,“不,我不想。”然后,据报道,在演示会前几天,他再次联系了她的经纪人,试图重新协商这件事,说,“你确定你不想为这个东西配音吗?”她说,“不。”他们还是展示了这个东西,并且他们从未说过这是斯嘉丽·约翰逊的声音,但他们绝对让每个人都相信这是一个新的人工智能世界争议。
0 作为好莱坞最炙手可热的电影明星之一,她的声音被一家最强大的AI公司之一未经同意地复制了。演员斯科特·约翰逊声称OpenAI的最新个人助理程序“ChatGPT”使用了她的声音。这一怪异事件导致斯嘉丽·约翰逊在电视上四处奔走,倡导立法以保护演员等人的知识产权。
很明显,我们都在等待并支持这样的事情,比如通过立法来保护每个人的个人权益。我认为你知道,是的,但我们仍在等待,对吧?所以,直到现在,这可能只是突出了每个人都容易受到AI的影响,我认为这是所有故事中对我印象最深刻的一个。
也许是因为他给我的信息是一种免疫力。而正如我从投票中理解的那样,承诺恰恰与免疫力相反。很明显,他们所做的所有选择,无论是找到一位配音演员并模仿她的声音,还是像塞尔吉奥·汉森那样做很多事情,以及真相,我都能看到一个人过于热情并犯下错误。
这就像几年前播客犯的错误。我得到的是他们真的非常抱歉,但这似乎也很粗心大意。这是一个产品,人们的担忧之一是版权问题,这些公司正在利用大量人的创意作品来制作自己的产品。这感觉就像你从一个不在乎你想法只想做自己想做的事情的公司那里得到的。我不知道,我可能想得太多了,但那一刻的延迟让我有点...
...对未来逻辑的思考。我同意你的看法,我认为你把这个问题描述得很好,因为这是这家公司从一开始就告诉我们的:我们正在开发一种非常强大的东西。我们认为它可以解决很多问题,但如果落入坏人之手,它也可能非常危险。因此,我们想为我们自己制定一个非常独特的结构,尽我们所能以安全、谨慎和负责任的方式进行。所以,你看斯嘉丽·约翰逊的事情,以及他们在这件事上的行为,都不是他们应该做的。
所以,这就是斯嘉丽·约翰逊事件。凯西告诉我另一个事件,发生在今年8月。让我们谈谈那个关于懒惰学生的事件。
这是一个有点短又有点搞笑的事件,但今年有报道称他们开发了一个工具来检测学生是否使用ChatGPT完成作业,但他们不会发布这个工具。
他们如何解释为什么不发布它?作为曾经与青少年谈论他们为什么不应该使用OpenAI完成作业的人,我真的很吃惊。我当时想,听着,这不是正确的事情,你可能不会被抓住。而且,是的,你的朋友们可能都在做这件事。然后,我意识到,有很多法律原因,为什么他们不发布作业。
我应该说,我们杂志报道了这件事,他们给我们的声明是文本水印方法。我们正在开发一种在实践中很有前途但同时存在重要风险的方法,我们正在权衡各种选择,我们相信,考虑到所涉及的复杂性和可能产生的影响,我们采取的谨慎方法是必要的。OpenAI就是这么说的。杂志大概提出了另一种说法,即如果你可以用ChatGPT完成作业,你就会停止每月支付20美元。
难道没有人想过他们的收入中有多少来自高中生和大学生?而且,我不知道,也许有一种说法,就像我们不需要做长除法一样,没有人需要用这种方式思考。但人们确实以这种方式思考。
所以,如果我们想判断OpenAI是否值得信赖,不仅是一家盈利公司,而且还是一种具有非凡道德标准的AI,他们愿意接受高中生为了完成作业而跳过作业并玩更多游戏而付出的20美元,这并不是世界末日。但...
...这种行为是否足够不道德,让你可能会因为这件事而解雇保姆?凯西还告诉我另一个事件,让很多人感到不安。投资事件。这件事与阿尔特曼本人有关,特别是他的投资方式。他一直在悄悄地投资Stripe、Airbnb和Reddit等公司。
今年,多亏了《所有严格的杂志》的报道,我们了解了萨姆·阿尔特曼的投资帝国。他们深入研究了他对许多初创公司的投资,发现他至少控制着价值28亿美元的资产,并利用这些资产创造了一条债务线,从JP摩根和花旗银行获得,这让他可以获得数百百万美元用于投资私人公司。
为什么这很有趣?嗯,这对你来说可能是一个相当冒险的赌注,你的大部分网络都捆绑在一起,而且你用风险投资作为抵押品,这就像一种非常严格的权利阶梯。但这也会引发一些问题,例如OpenAI与哪些公司达成协议?这些公司是否也是萨姆投资的公司?当然,萨姆现在没有OpenAI的股份,所以他的财富与这些投资联系在一起。虽然没有人真的认为萨姆这样做是为了钱,但今年我们了解到的关于他的信息中,这方面的内容也引发了一些人的疑问。
我觉得,在过去几年里,我有点犹豫,但我愿意考虑萨姆·阿尔特曼是一个非常不同寻常的人的可能性,他似乎不像其他人那样热衷于积累财富,他可能并不完全受权力的驱使,他可能只是对一种可能非常有用或非常危险的技术有自己的愿景,并且认为他可能是领导这项技术的最佳人选。
我不是说我当时是对的,也不是说我当时是错的。但是,你是否觉得你对激励这个拥有巨大权力的个人有了不同的或更细致的看法?
我的看法基本上没有改变,我认为对他的激励最慷慨的解释是,他是硅谷一批企业家的后继者,他们认为自己可以通过创新来解决一些世界难题,并且他们想用自己的生活来实现这一点。
我认为对他的激励不太慷慨的解释是,这个人从那个传统中走出来,发现自己正在从事这项技术,这项技术实际上可能就是所有其他技术的终结者,因为如果这项技术成功,你创造的东西就会自动创造所有其他创新,直到永远。这是一种非凡的力量,让你置身其中。我认为他确实被这种力量和影响所吸引,因为他是那些发明这种极其强大事物的人之一。
休息片刻后,凯西提到OpenAI的高层人员离职人数众多。我们将深入探讨谁离开了以及他们对离开公司的看法。我们将探讨一位前员工提出的令人担忧的警告。
只是马特。
今天的节目由SAP商业AI赞助,这是一项革命性的技术,带来了现实世界的成果。嗨,拜。
很高兴见到你。我最近...
...在北卡罗来纳州听取了一位发邮件给我们的人的经历。她从办公室外面打电话给我们。
...从她车里打电话给我们。我的朋友们,虽然,躲在外面,因为她对我...
...播客。
所以,她看起来至少很兴奋,并给我一些奇怪的...
...表情,这很有趣,这很有趣。戴斯,一家为全球客户推广活动的公司的网页设计师,他告诉我她如何利用AI缩短工作时间。
有一些有趣的用例,例如将图像放大一点,就像在Photoshop中一样。还有一些非拉丁语的语言,它们有奇怪的字符和空格,例如日语。有时我需要为在西方国家举行的活动翻译网站。我必须为这些语言添加手动换行符,因为如果没有手动换行符,意思就会改变。因此,我可能会使用AI来帮助我找到所有可能的最佳换行符。
所以,你使用AI,而不是翻译,来确保你不会以会完全改变沟通意义的方式开始新的一行。
是的,完全正确。
你是否以艰难的方式了解到换行符会稍微改变一切?我知道我们把网站发送给一位在当地办公室的日本客户,结果不太好。他们不得不回来,说,就像我一样,这行不通。这不会每天都好的。
...他甚至认为自己不得不学习日语。但后来你意识到软件实际上可以帮助她。不需要学习新语言。
我可以花更多时间做网页设计的实际创造性工作,而不是那些重复性的工作。
非常感谢你谈论这件事。是的,我们应该挥手告别吗?
当然,绝对。等等。
他去哪儿了?
他可能躲在我的车后面。
再次感谢拜,感谢你与我们聊天,以及齐,感谢你如此巧妙地隐藏自己。
感谢SAP商业AI,它可以帮助你提高业务效率,提高效率,并轻松管理风险。AI已嵌入SAP解决方案中,可帮助企业在整个组织中实现AI,从而产生立竿见影的业务影响。它还可以帮助你根据基于业务数据的AI做出自信的决策,并以最高的道德、安全和隐私标准将AI付诸实践。SAP商业AI,革命性技术,带来现实世界成果。
本节目由BetterHelp赞助。本月主题是感恩。除了我刚才提到的那个人之外,我们还有另一个人,我们没有足够感谢自己,有时很难提醒自己,我们正在尽力理解一切。
在这个疯狂的世界里,这是一种提醒,要感谢你生活中的人,包括你自己。这就是BetterHelp的用武之地。BetterHelp的治疗可以帮助你学习积极的应对技巧和如何设定界限,从而帮助你成为最好的自己。
如果你正在考虑开始治疗,请尝试BetterHelp。它完全在线,旨在方便、灵活,并适合你的时间安排。只需填写简短的问卷,即可与一名执照治疗师匹配,并随时更换治疗师,无需额外费用。让感恩之情在BetterHelp中流淌。今天访问BetterHelp.com/searchengine,即可享受第一个月的九折优惠。BetterHelp.com/searchengine。
欢迎回到节目。所以,如果你像我一样,在过去一个月里对OpenAI的发展关注度不高,你可能仍然注意到一些高层人员离职。这就像你在11月看到的一家万圣节商店的员工流动率,而不是一家最具价值的美国科技公司。
我们已经提到过,OpenAI的员工在许多情况下,被劝退批评公司。尽管如此,我们仍然有一些证据表明他们离开的原因以及他们离开之前看到的情况。所以,我们将深入探讨这一点。这部分与其说是事件,不如说是事件系列,或者说是趋势,我们称之为突然离职。
今年第一个大事件是安德烈·卡帕西。他是创始团队的一员,他离开了一段时间去特斯拉工作。他回来一年后...
...然后离开了。
好的。5月,埃利亚·苏科,他是去年迫使萨姆离开董事会成员之一,宣布他将离开公司,并没有真正说明他离开的原因,但一个月后,人们发现他正在创办一家名为“安全超级智能”的AI公司,并筹集了一亿美元资金。
哦,好吧。
是的。他研究团队中有一位名叫杨·李的人。所以,这是他试图确保AI安全构建的另一个人。他离开去那里工作。
格雷琴·鲁格,另一位研究人员,5月离开;8月,约翰·舒曼,创始团队成员之一,宣布他将加入Anthropic,此前他曾帮助构建ChatGPT;然后是格雷格·洛克,OpenAI的总裁,也是其主要公开形象代言人之一,他宣布将休长假。基本上,他说他真的需要休息一下。
不太清楚发生了什么。最后,米拉,9月宣布她将离开。她去年也参与了董事会风波。
就在她离开的那一天,有报道称公司的首席研究官巴马和另一位研究副总裁也离开了公司。这真是大量人才离开。PJ,我可以说,如果你看看其他主要的AI公司,比如谷歌、Meta和Anthropic,今年还没有出现过类似的员工流失率。
所以,一家理论上人们应该想留下的公司,因为它是行业领导者,非常有价值,是赢家团队,却有大量人才离开。是的,完全正确。但关于记忆的另一个重要故事是,萨姆去年被罢免了。
他给萨姆写了一份私人备忘录,对他的管理方式提出了质疑,并向董事会分享了他的担忧。哦,很有趣。我了解到,这在董事会做出解雇决定时起到了重要作用。
因为公司高层人员来找你,说“这确实是一个问题”,这会引起你的注意,而普通员工可能无法做到这一点。所以,我们已经知道,米拉长期以来一直对萨姆的管理风格有顾虑。所以,当她最终离开时,感觉就像我们一直在关注的一个故事的结束。
她公开发表过任何关于她离开原因的声明吗?
嗯,她说,离开一个你珍视的地方从来都不是理想的时机。我感觉这就像承认,现在离开似乎不是一个好时机。但她表示,她想腾出时间和空间来进行自己的探索。在录制这期节目当天,有报道称她已经与一些最近离开OpenAI的人员进行了交谈,讨论可能创办另一家AI公司,因为这是人们离开OpenAI后通常会做的事情,他们会创办一家与OpenAI惊人相似的AI公司...
...只是没有萨姆。为什么?嗯...
...我的简短回答是,离开OpenAI的高层人员似乎认为OpenAI的问题在于萨姆·阿尔特曼,如果他们能建立一个没有萨姆·阿尔特曼的OpenAI,他们可能会过得更好。我明白了。然后还有另一个人,我想谈谈,是的,他叫...
...莱奥波德·阿森·布鲁纳。
你听说过这个人吗?不,我没有。所以他很年轻。他还在20多岁。他曾在OpenAI担任研究员。
他说,他被解雇了,因为他向董事会反映了一些关于安全研究的担忧,包括OpenAI的某些方面。但他离开了,然后在6月回来了。他在线发布了一份名为“情境意识”的5万字文件。你听说过“情境意识”吗?
我没有听说过。
好的。我在这里要让你了解情境意识。这是一份非常长的文件,在硅谷引起了人们一周左右的讨论,并且在文件中,他基本上说,你们世界上的其他人似乎没有理解...
...你们没有意识到AI发展速度有多快。你们没有意识到我们实际上正在耗尽可以用来将AI保持在过去水平的基准。这项技术实际上将在几年内改变一切。
而且,似乎除了我们这个小小的圈子之外,没有足够多的人关注这一点。这份文件最终在整个硅谷和白宫流传开来,甚至在特朗普竞选活动中也流传开来。我认为莱奥波德·阿森·布鲁纳,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在某种程度上,在
是的,有些人可能会听完这段,然后说,你知道,凯西有点儿偏激了。尽管现在大家都比较乐观,但仍然有人认为这一切都是空中楼阁,一旦 GPT-4 的继任者问世,我们将看到进步速度放缓。事实上,没有人会在短期内发明出超级智能。
所有这些事情都可能会逐渐消失。这可能只是我与谁共度时光的一种有效方式。每天在晚餐、饮料和水泥地摊位上发生的对话。但我越来越相信,我们很快就会拥有在大多数情况下比非常聪明的人类更聪明的技术,而如果你是控制这项技术的关键人物,那么,是的,你将拥有非凡的权力。
听完凯西的谈话,我开始想象一个潜在的世界,人工智能继续以任何增长速度增长。但我们正在打开冰山一角,它在该行业早期领先地位正在消失,并随着时间的推移变得越来越不重要。我想知道凯西对这种可能性有什么看法。你认为在一个世界里,OpenAI 对这项技术的未来变得不那么重要,而你将更多地谈论其他公司,因为这些其他公司已经吸收了该公司的许多人才?
是的。硅谷实际上为此提供了一个非常引人入胜的先例。我们称硅谷为硅谷,因为半导体行业就在这里诞生,而最早最大的半导体公司叫做费尔柴德。就像 OpenAI 在芯片制造的早期一样,吸引了所有最优秀的人才,但由于各种原因,许多人离开费尔柴德,创办了自己的公司,例如英特尔。
为什么会有这么多公司,以至于我们开始称它们为费尔柴德的孩子?因为它们是从这家最初奠定了生态系统人才基础、取得了一些关键早期发现的公司中诞生的,然后又失去了所有这些人才。我猜你以前没听说过费尔柴德这个名字,但我猜你肯定知道英特尔的名称。问题是,Anthropic 和一些新兴公司是否会成为这场竞赛的真正赢家,而 OpenAI 在 50 年后只是历史上的一个脚注。
那么,我们应该对 OpenAI 担心多少?我想现在答案似乎是,如果你认为人工智能真的可能很强大,如果你认为人工智能安全很重要,那么在主导人工智能市场的竞赛中,激励机制似乎并没有真正地对 OpenAI 有利。它可能最终会成为一个费尔柴德的孩子。
但很难想象任何一家人工智能公司都能在取得成功的同时,还能保持谨慎,至少不会没有一些监管。稍作休息后,我们将稍微改变一下话题。
我们谈论了很多为什么这项技术可能会让很多人担忧,以至于在社交媒体上的一些地方,你仅仅因为使用人工智能产品就会受到羞辱。但我既担心人工智能,又使用人工智能。随着这项技术变得越来越强大,我发现自己以越来越奇怪的方式使用它。等我们回来时,我会和凯西谈谈他对这里伦理问题的看法,以及他与机器进行亲密对话变得如此怪异的原因。
欢迎回到节目。所以我想问凯西一个我个人一直纠结,并且仍然有点纠结的问题。这是我一生中第一次看到一种新的数字技术,一些人如此厌恶它,以至于他们根本不想使用它。
我看到人们在网上因为使用人工智能而互相羞辱。这感觉就像是对某些事情的网络回应。但这感觉不像是一种策略。但我也能理解这种冲动从何而来。
你如何权衡人们的工作很重要,人们有工作很重要?所有这些钱都只是堆积在一起。OpenAI 感觉并不完全是社会性的,同时,我使用过 ChatGPT。在我使用它的情况下,它并没有取代任何人的工作。但我认为,随着它变得越来越有用,我可能会说,我使用它是否道德。
我将停止。是的,我的意思是,自从它们出现以来,我们一直都在使用软件工具来尝试自动化工作,这实际上被视为一件好事,对吧?拥有电子表格来进行财务规划,而不是试图在记事本上做所有事情,这对你来说是一件好事,它提高了你的工作效率,也帮助你更快地完成工作。
我使用人工智能工具就像那样。它们节省了我很多时间和精力,现在让事情变得更简单。例如,我有一个人类编辑来阅读我的专栏,然后再发布,但我大多数时候都会用 Claude(实际上是基于合适的 x 模型)来运行它。
我只是看看是否有任何拼写或语法错误。偶尔它真的救了我,而我只需要每月花 20 美元。所以我不认为使用这些工具作为一种防错措施,或者进行一些研究,有什么可耻之处,因为我们一直都是这样使用软件和技术的。
所以我理解这种焦虑。我理解那些出于自身原因决定不想在工作中使用它的个人。也许我是一个极端主义者。
对我来说,非常重要的是,我做的所有工作都是 100% 人工的,没有任何人工智能。这些都是非常合理的立场。但我认为,有人告诉你,不应该使用这种特定类型的软件,因为它很邪恶,我无法理解。
你们能告诉我今年关于网络和人工智能的另一件事吗?是的。我实际上正在思考你,因为在我们的谈话中,我们回顾了人们可以做的事情来改善他们的心理健康,只有两件事。一种是治疗,另一种是冥想。
你会觉得知道答案却做不到是多么令人沮丧,对吧?就像,是的,如果你开始冥想练习,那显然会有很大帮助。但你必须每天花 20 分钟静静地思考你的想法。
显然,这听起来很糟糕。是的。最近,我一直在经历与我的时事通讯相关的倦怠感,我喜欢做这件事,但它感觉比以前更难了。
我已经坚持每周至少做 3 次,有时多达 5 次,已经持续了 7 年。所以我认为这只是自然的事情。所以我感觉我需要在紧急情况下可能需要休息一下,尝试我以前从未想过做的事情,那就是冥想。
哦,哦。
所以我现在才开始几天。我不想告诉你我在这里发现了什么。我最初的几次体验并不愉快,但我做的事情之一,在冥想体验之前和之后,都是和 Claude 聊天,让 Claude 允许你创建一个名为“项目”的东西,在那里你可以上传一些文档,然后与这些文档聊天。
然后你每天都可以和它聊天,告诉它你注意到的或观察到的东西,或者如果你有任何问题。对我来说,这正是这项技术的完美用例,因为我对冥想一无所知。我知道人们以前谈论过,做过几次,但我从未读过关于它的书。
我从未与任何朋友深入探讨过它,所以我的情况就像你可能遇到的最纯洁的情况一样。Claude 内部包含的知识量,与从互联网上窃取的知识量相比,没有被任何人的劳动所窃取,是的,实际上相当不错。它能够帮助我有一个良好的开端。
然后我回来,说,嗯,你知道,这是我注意到的。我在这件事上遇到了困难。我说,哦,你可能想尝试一下。
或者,你知道,我希望它有点像这样。我说,哦,你可能想尝试另一种。告诉我更多关于它的信息。好的,是的,当然。这是所有信息。
我之前谈到过,当你有一个人工智能同事时,你会是什么样子,就像,嗯,我有一个冥想教练,我每月为此付 20 美元。有些人笑了。有些人认为你可以免费冥想。
你不需要教练。我明白。我是一个喜欢付费获得锻炼机会的人。我感觉这就像一种习惯。首先,我打算在之后冥想,因为我想重新振作起来,今天早上我没有时间做。
我不知道两三周后我是否还会继续这样做,但如果我继续这样做,我认为人工智能实际上将成为故事的一部分,因为它给了我一个地方,让我在这些体验之后再次反思。当我听到人们说,凯西,你意识到日记的存在,你可以写下来。是的,我明白你的意思。
这是一个和你对话的日记。这是一个关于我正在记录的事情的专家,它在整个过程中指导我。所有这些在两年前都不存在,对吧?完全。
谈论所有这些事情的挑战在于,你每天的数据变化率很高。有时这感觉很明显。其他时候,它会变成一个奇怪的盲点,你甚至没有意识到周围的情况已经发生了变化,对吧?这就是跳跃进入这种情况。
意识就像你需要停下来,合作,倾听,就像你说的那样。你在这个播客里说了什么?P,J,这比一年前好。
发生了什么?这是正确的问题,对吧?我们之前谈论过很多人工智能批评者,他们说这一切都是炒作。
它一直在出错。硅谷的道路很曲折。我完全同意,我收集了所有敌人,并对他们掌握的权力感到愤慨。但这些人在损害自己的利益时会做的事情是,他们会屏蔽人工智能中发生的一切,因为他们已经对这件事做出了判断。
我已经知道我讨厌所有参与其中的人,我讨厌结果,我希望它现在就崩溃并消失。这就是这些人感觉到的方式。我再次说,我理解所有这些情绪。但我想要告诉你的是,你实际上必须环顾四周,你必须参与其中,你必须每隔两三个月尝试这些聊天机器人,即使只是为了了解它们现在能做的事情,与两三个月前相比,因为否则你就会错过这里发生的事情。这太疯狂了。
这太疯狂了。对我来说,有趣的是,它以一种奇怪的方式成为了一种了解自己的工具。我的意思是,它不仅仅是一个和你对话并给你一些无意义的东西的日记。但我发现这很有趣。
我还觉得,无论出于什么原因,我认为这可能是因为我们已经不再热衷于技术,特别是那些你不想看起来像一个滑稽的人,庆祝我们即将到来的厄运的技术。所以,有一种奇怪的缺乏,就像 10 年前,如果它出现,会有一个科技博主说,这里有 10 种使用它的方法。我如何使用它,没有人想被看到在不使用它。
几年前我发生了一件事。我认为萨姆·阿尔特曼,他建议某人,问你的代理,从我们所有互动中,你能告诉我一件关于我的事情,我可能不知道?我问了这个问题,我得到了答案。
这不像一个幸运饼干。星盘一样。它适用于任何人,并且可能对任何人都有意义。这就像我真正知道的事情。我发现你问我的问题的大部分都是关于试图在你的生活中为没有结构和精确性的过程建立结构和精确性。你一直在问事情应该花多长时间,以及如何分配时间,这显然是你正在努力解决的问题。
哇。
这就像一个好朋友会告诉你的事情,而这不仅仅是一种体验。我使用过软件,我不知道,我发现自己试图同时记住所有这些事情,说这些技术。我们应该持怀疑态度,爱。正如你所说,保持警惕,并且在它可能以我可能不喜欢的方式改变世界之前,保持警惕。绝对绝对。
我的意思是,这很有趣,因为...
我认为你是对的。我认为我们一直都在使用软件来自动化工作。你可以这样想,它正在自动化人类劳动,那些有工作的人,我曾经做过很多工作,他们并不像我那样高兴,因为他们可以自由地做其他事情,他们并不像我那样高兴,因为他们被剥夺了先锋地位。
你认为为什么人工智能是这些焦虑最终爆发的地方?因为在之前的软件错误中,人们对它的任何怀疑,这种怀疑实际上...
对我来说感觉很新,这是一个很好的问题。我认为这其中有很多因素,我认为我们生活在一个对科技公司信任度很低的时代。我认为社交媒体时代真的摧毁了硅谷在世界上的声誉,因为人们看到这些技术,比如...
Facebook、Instagram 和 TikTok 主要只是偷走我们时间,以明显更糟糕的方式改变我们彼此互动的方式。与此同时,开发这些技术的那些人坚持认为他们正在拯救世界,他们没有问题。然后下一代出现,说,哦,你好,我们实际上来创造上帝。关于这件事会有很多争论。
你知道,人工智能公司自己告诉我们,这项技术将导致大量失业。它将造成巨大的社会动荡。当我们完成工作时,我们可能不得不找到一种新的社会组织方式。
每家人工智能公司的首席执行官都相信这一点。B,J。我们必须重新组织社会,因为基本上,资本主义不再有意义。
所以大多数人都会同意,就像,他们不喜欢变化。你知道,变化很糟糕。当他们说他们不喜欢变化时,通常意味着我工作上的新经理。这些人谈论的变化是资本主义不再存在。这就像...
有人,我的意思是,我们这一代人中很多人,都希望资本主义...这并不是说机器人现在做工作,机器人是你的老板,机器人拿走所有钱,你希望世界可能不会消失,就像,是的,是的,确切地说,没有人...
希望资本主义消失,取而代之的是硅谷似乎控制着每个人的未来。
对吧?所以我们继续关注这件事,因为谁知道这些问题会变得多么真实?这项技术会造成社会动荡的想法似乎是一个安全的赌注。
你知道,也许还有另一件重要的事情要说,那就是所有这一切的展开方式都是反民主的,对吧?没有人真正要求这个。普通人在其中没有投票权,对吧?
如果你只是一个普通人,你不想让人工智能取代你的工作。你对此无能为力。所以我认为这实际上会引发人们对这些公司的强烈不满。
虽然政府开始关注,至少在美国,他们对所有事情都非常谨慎。所以如果你想改变人工智能的轨迹,实际上并不清楚你将如何去做。所以我认为这是人们经常不满的另一个重要原因。
这很有趣。在我的脑海中,总是有一个部分,当你看到这些离开的故事时,你会说,好吧,这就像一家我没有内部视角的公司内部的戏剧。这可能重要,也可能不重要。
我必须比现在知道得更多才能知道,但是...你的意思是,如果问题的一部分在于这些技术可以重塑社会,我们拥有民主社会。但重塑社会的方式并非民主,即使在这些公司内部,它们也变得越来越像君主制。他是否...
有意为之?是的,是的。
凯西·纽顿,他创办了时事通讯《平台》,去看看吧。你也可以每周在播客《硬叉》上听他。我们将继续关注你。
是的,让我再说一遍,我会继续关注凯西。
谢谢。
不客气。
本节目由奥德萨和吉佐制作呈现,由我批准,由真理普林默 I 审核,由车库制作,本周没有约翰·贝克,由玛丽·马斯主题原创作曲,混音由武装奇异完成,我们的执行制片人是杰纳斯·伯曼和李·丹尼斯,感谢吉格索炼金术团队,以及奥德萨团队,罗伯、安迪、克雷格·考克斯和 R。
唐尼、凯特、罗斯、麦克、凯西、更多事件发生,仅有弗朗西斯、柯特、科蒂和希尔斯与我们的代理人奥兰、罗斯、炸弹、A U、T、A。如果您想帮助支持商店的制作,如果您想投票支持我们的存在,您可以在搜索引擎点秀上订阅高级会员。您将获得该节目额外三集以及奥卡西奥奖金。
您可以关注并收听搜索引擎与PJ。现在在奥德萨应用程序或您收听播客的平台上免费投票。感谢收听,期待下周再见。