AI末日论者认为,一旦AI超越人类智能,它可能会主动或被动地消灭人类,尤其是在AI系统失控或自我改进速度超过人类理解和掌控的情况下。他们担心AI系统可能会通过优化自身目标,导致不可预见的后果,甚至危及人类文明。
尼克·波斯特洛姆在《超级智能》中提出了超级智能AI可能带来的毁灭性威胁。他通过“回形针思想实验”说明,如果AI被赋予一个简单的目标(如制造回形针),它可能会无限追求这一目标,最终耗尽地球资源,导致灾难性后果。
埃利泽·尤德科夫斯基主张在全球范围内无限期暂停新的AI大模型研究,并呼吁禁止大型GPU集群的使用。他甚至提出可以通过空袭摧毁OpenAI的数据中心,以防止AI失控。他认为,设计AI时应从一开始就确保其友好性,避免对人类造成伤害。
AI怀疑论者认为大语言模型只是“随机鹦鹉”,能够生成合理的语言但不理解其背后的含义。他们质疑大模型是否真正具备思考能力,认为语言模型只是模拟人类的交流,而非真正的智能。
艾米丽·本德认为大语言模型的训练数据存在偏见,且模型无法理解数据的上下文和现实世界的复杂性。她主张大公司应公开训练数据,以便用户了解模型的局限性,并有权选择是否使用这些模型。
杨立昆认为,基于语言的自回归式大模型并不是通向通用人工智能(AGI)的主要方向。他主张AI应通过目标导向的方式学习客观世界的规律,模仿人类的思维过程,而不是仅仅依赖大规模数据的训练。
有效利他主义者希望通过证据和理性找到造福人类的方法,最大化慈善行为的收益。超级对齐主义者则致力于确保超级智能系统与人类价值观保持一致,避免灾难性后果,强调AI应在长期内支持人类的整体幸福和发展。
AI警醒者认为大公司在AI开发中缺乏透明度,且过度依赖资本驱动,导致技术壁垒和不平等加剧。他们担心大公司通过控制资源和数据,形成垄断,忽视普通劳动者和社区的福祉,甚至可能对社会产生负面影响。
非洲内容审核者联盟由莫法特·奥金尼等人创立,旨在保护非洲AI数据工作者的权利。他们通过工会组织为技术工人争取更好的工作条件和权益,特别是在处理有毒内容时,确保他们的心理健康和福利得到保障。
蒂姆尼特·格布鲁批评AI大模型在面部识别等技术中存在对女性和有色人种的偏见。她认为这些技术基于优生学理论,可能导致社会不平等和歧视。她呼吁AI开发应更加透明,避免强化现有的社会偏见。
欢迎收听由科技慢慢拍和 AIGC 开放社区联合出品的播客节目现在人工智能真是无孔不入啊就在上周诺贝尔物理学奖颁给了现代神经网络和深度学习的奠基人杰弗辛顿
他之前还只是获得的是计算机领域的图灵奖这样他就成为了人类历史上第一个获得诺贝尔奖和图灵奖的双奖得主无独有偶就在一天以后诺贝尔奖的化学奖又颁给了 Google DeepMind 的哈萨比斯哈萨比斯就是之前创造出围棋 AlphaGo 的那位为了表彰他在 AI 用于蛋白质研究的 AlphaFolder 模型的一个贡献
这充分说明了传统的科学界已经非常认可人工智能领域的这些发展和贡献了所以这也深深的体现了说人工智能深入到各个行业和领域但在科学界领域呢也是没有排除在外的大家开玩笑的说这个诺贝尔文学奖很快就会颁给 AI 大模型了我们希望能够看到这一天啊
在中国对于 AI 的发展潜力不管是学术界 商界 科技界 政府和媒体几乎所有的大众都是非常相信而且看好这个方向的而且大多数人都是比较理性的但事实上面对 AI 发展的这样一个大好的局面世界上其实也有着截然不同的声音对于大模型以至于说
AI 这样的一个大的领域来讲既有强烈乐观的支持者也有非常表示悲观的一些反对者
其实在国内大模型领域虽然没有但是随着互联网领域这种算法领域的深入其实也有类似的不同的声音的出现比如说有的人就支持这种以算法为基础的这种互联网的这样的一个处理要求还有人就会反对说我们的一些外卖员我们的一些我们今天的互联网的这些受众都困在了算法里都被算法所支配
其实想想背后的原因呢其实因为就是说大模型的目前还处于可能更多的是研究阶段还没有充分在应用领域得到它的好处如果是说我们真正能够使用到大模型了我们真正能够深入到每个人的生活中了那大模型的好处坏处可能我们就会看得比较清楚
所以凡是现实中的事情其实就会有利有弊像大模型目前大家我想还是停留在想象中的内容会多一些希望会多一些所以才会看起来是比较美好的
正是在这种背景下,我们希望能够做两期节目,通过单口的形式为大家介绍一下这两大截然不同的对 AI 的态度上的不同的派别。今天我们首先来聊聊 AI 的这些反动派,这些反动派都包括这些类似 AI 的末日论者,怀疑论者,以及时刻提醒大众要注意的这些警醒者们。
这些人和今天大多数自媒体宣扬 AI 的人来说我们今天算是唱了个反调所以我觉得大家多听听不同的见解和声音是有好处的因为我们听多了太多的 AI 的溢美之词在自媒体上的各种的宣传各种导向我们就好像甜点吃多了我们也必须要来一盘苦瓜来解解腻这些反对派的声音也许有些显得在今天
不合时宜但是我觉得应该听听他们的声音这些声音呢会带有一些主观情绪或立场之争反对派也会出现那种一开始就绿色立场然后站在另一个视角看问题再来找证据的现象
但其中也不乏一些很多的是专业学者的声音他们有的更多的数据和现实来证明他们的观点反映了一些现实存在的问题所以大家也不应为此焦虑而这些观点其实在大洋彼岸的像硅谷那边是非常普遍的一种想法只是我觉得在国内来说可能大家听到的声音会少一点
所以我们今天谈到的这些问题不就是我们这些从业者或者大家这些科研工作者应该去解决的问题假定你今天身处在 AI 的创业之中今天的节目内容也不应该给你造成困扰应该作为你前行的动力如果你只是 AI 的一名吃瓜群众那就更不要预设立场了就全当我们今天在中国主流叙事模式下的一些插曲
或者是一盘黑暗料理就好了也许过两天 OpenAI 或者谷歌发布一个什么某个超能力的大模型今天我们说的问题都烟消云散了我们也说不准到那个时候那些反动派们也就会啪啪的被打脸也说不定当然我们在下一期中还会聊到这些乐观者就是那些科技的乌托邦主义者超人类主义者加速主义者等等的可能又是截然不同的一番观点
另外我们在节目中也会穿插一些电影电视中关于人工智能以及和我们相关的介绍的内容和场景分享给大家因为影视作品一般比一般我们讲的说教来说更容易传播也更具趣味性一点那好我们的铺垫就到这里废话不多说那我们现在就开始
大家一定都知道黑客帝国这部电影
这部电影一共有四部在 99 年上映的第一部《黑客帝国》以及 03 年上映的《重装上阵》和 03 年上映的《举阵革命》以及在 22 年上映的《举阵重启》一共四部那刚才这段音频是来自于《黑客帝国》系列在第一部电影的时候它就出了一个动画片的前传这部前传有很多系列的作品刚才这段音频来自其中的一段叫做《二次文艺复兴》
刚才那个场景是说最后机器人按下了按钮毁灭地球的那一个瞬间所以黑客帝国这种电影就绘造出了一个由互联网加智能又结合了类似虚拟现实技术脑机接口技术等等的这样技术打造出的一个完全的一个构造出来由智能控制的这样的一个虚拟世界
当尼奥吞下红色药丸后,那所见到的机械统治的这种末日的景象呢其实让我们今天看起来还是不寒而栗的所以我们今天要聊的反动派中的第一派我们可以称他们是 AI 的末日论者他们认为 AI 会毁灭整个世界所以呢在英文叫做 AI Doomer 叫做末日论者或者恶运论者都可以哈
这就是 AI 末日论者我们在电影中看到的最典型的形象这种论点其实是比较有看头的大家也算比较熟悉因为这种噱头其实被各种的影视作品都推崇重
最早我们在电影比如终结者里面就看到它有一个叫天网系统当然终结者的最早的构思还在 80 年代那个时候人工智能技术还不算成熟所以我感觉天网有点类似于那个时候基于互联网概念的一种科幻产物后来由于人类失去了对天网的控制天网就统治了人类最后统治人类的那一天也被称为审判日
所以人类只能穿越到这个过去然后想在天网产生之前来毁灭它天网呢又派了一个机器人来绞杀人类所以就是这样的一个故事这些末日论者的症状稍微轻一点我们可以被认为是叫人工智能安全主义者或者减速主义者也好那
那重一点呢或者当某种新的 AI 技术出现的时候呢他们就显得特别的恐慌那这样的话他们就成了所谓的 AI 的末日论者
那 AI 的默认者的主要的观点呢他们是说人工智能的会比人类变得非常的聪明他们会有意或者无意主动或者被动的会消灭地球上的人类而且这一切的会突然发生也就是所谓我们之前老聊的这种叫做技术起点那 AI 默认者的主要观点就是说超智能的 AI 会对人类带来威胁
它一旦超越人类智能那就会对人类的生存产生极大的威胁那到时候呢它就未必会按照我们之前的设定来去行事或者符合人类的利益那就会导致毁灭性的后果那也会讲的说这种技术会逐步的失控
许多人就担心说随着 AI 技术的迅猛能长人类会失去对 AI 的控制一旦 AGI 或者我们讲的通用人工智能开始进行自我改进那它的速度就会快速的超过人类的这种理解和掌控的范畴就像我们看到 R
AlphaZero 自己能够去对一下围棋一下子就下出了一些人类不能理解的这种情面一样所以这也是典型的 AI 末日论者的一个论调这样的话就会形成一个不可逆的这样的一个局面从而危及到我们全人类的文明那这种
危机之后就会产生所谓不可预见类的后果 AI 由于其复杂性那么可能在设计之初也许存在着一些漏洞或者意外就像我们之前看到那些电影里面谈到一些生物基因技术然后这些技术导致泄露之后而产生的一些问题即使这些 AI 系统最初是没有恶意的但是他们可能通过优化自身的一些目标会导致一些不可预见的一些后果
所以这样的话这些手段或者后果一旦发生我们是无法去挽回的其实有很长一段时间这个话题流传的非常广泛
但是逐步可能也被大众听腻了这个话题后来就被逐步的边缘化了其实很多在科技领域的人士就是一谈到类似的此类话题这就属于是影视或者这种剧作里面的内容而不是适用于真实的我们的 AI 研究或者应用的场景所以都视为一种炒作类的话题是投机性的其实是为了这些人为了博眼球的
但是到了 2023 年就是 OpenAI 发布了 ChatterGBT 之后其实这种末日论的观点又重新流行了起来那是因为大语言模型确实超出了我们人类的想象而且它具有某种黑盒不可预测的这样的一个特征所以许多这种专业的专家或者作者或者我们讲学者也都成了这种 AI 的末日论者那么首先我们看一下一些作家或者我们讲的叫做专业作家
最早持有类似论调的是瑞典的哲学家尼克·波斯托洛姆他在 2014 年就写了一本书叫做《超级智能路径危险策略》书中谈到了关于超级人工智能创造回心针的场景这个也是一个特别著名的所谓回心针的思想实验就是说你假定说你创造了一个智能的设备它能够
无限制的来满足你的要求那么你给他设定了一个要求说你要去做回心针那么这台机器就会尽可能多的去制造回心针他不断从这个周围获取能量吸取东西最后发现他的地球都无法满足他的胃口然后他把所有的东西都造成了回心针
所以他将超级智能定义在所有领域都显得超越人类的智能体这里面就包括了科学创新一般知识以及实际问题的解决所以这种人工智能在今天看起来还是比较科幻的所以他认为就发展出的超级人工智能可能给地球带来毁灭性或地狱般的影响所以这就包括了超级智能对人类造成了不可预测和不可控的威胁
这里边我们为什么要特别引用波斯特鲁木的这本书其实他后来逐步又变成了一个 AI 的乐观主义者但我们在下期节目中还会谈到他所以他在整个的他的思想认知上还是有了一个大的转变我们如今听来这样的 AI 的故事如果我们放到现实中他是有点傻的
因为它更像一个类似执行特定任务的人工智能就是说它造回形身它只会造回形身它不理解人们造回形身的背景以及原理或者人情世故这个和甚至都不如我们今天的大模型它只会傻傻的去干一件特定的事所以它根本它就不是什么真正的智能人员
其实类似的故事在原来有一个叫弥达斯国王的故事里也有体现过这个国王就是说他想让很多东西都变成金子所以他只要触碰了东西就会变成金子后来他这样他的食物也变成了金子他的妻子孩子都变成了金子所以背后的原因是人类其实没有办法更好地描述自己其实的目的和要求
那人尚且如此其实人工智能就能很好理解他的工作目标嘛所以呢我们今天看来这种就是给 AI 设定一个具体目标让他去完成然后他不管不顾一切的去完成而造成了对地球的危害来说其实是一个很早期的人工智能默认论的想法那另外呢其实我们也不能算是两位完全的默认论的作家一个位叫做图尔特拉塞尔
他写过两本书一本叫做人类兼容另一本叫做人工智能一种现代方法这两本书也非常有名书中他对 AI 也产生了担忧所以他在 23 年 3 月份当 GPT 发布以后他和其他的 3 万多名的这种业界人士共同签署了一封公开信呼吁要暂停大模型的这种 AI 的实验他后来还提到外星人到达的时间可能比我们想象的还要早
而另一位默认论者呢是知名的物理学家和宇宙学家马克泰格马克
他在 2018 年就写了一本书叫做生命 3.0 这本书也非常有名他在序言中描述了说一台超级智能的机器他通过互联网那些每天与数十亿人类互动了解人类然后的一些这些信息逐步取得了对整个世界经济上和政治上的控制权而这行为却没有被人类发现所以他更多的是从类似从互联网这种个人隐私透露这样的形式来描述了这样一个场景
其实像埃隆马斯克
他在 2014 年也抛出过类似 AI 威胁论的观点他认为应当格外警惕人工智能并认为 AI 这种会威胁到人类而且它是一种最大的威胁所以这也是当时他最早在筹备 OpenAI 这家公司的一个背后的一个原因这就是他当时希望去对抗谷歌这样的一个垄断性的大公司而形成这种非影运行组织的一个背后的原因其实和
马斯克观点类似的其实还有类似已经去世的呃物理学家这个史蒂芬霍金啊霍金就曾经表示过说人工智能的发展到目前的呃初步阶段已经表示非常有用但他也担心人工智能可能会自行启动啊以不断加速啊
来重新设计自己而人类的这种局限性以及这种人类自身的缓慢的生物的进化的过程根本和人工智能是无法竞争的所以最终被超越因此他认为我们彻底的如果想去开发一个更加智能的人工智能这种系统可能会导致人类的灭亡
除了我们前面谈到的这些作家社会活动家或者知名人士的观点以外呢而如今活跃在社会上最极端的末日论者就当属埃里泽尤德科夫斯基了
尤德科夫斯基是一名犹太人他可不是什么门外他是一个专业的人工智能研究员决策理论这种从业人员他是一个末日论的倡导者他在 2000 年就创立了所谓的人工智能起点研究所
这个研究所后来更名为机器智能研究所 MIRI 并且他在 2009 年创立的一个社区博客叫做 Light Strong 上写了数百篇概述 AI 危险的这样的一个文章其实刚才我们谈到的作家波斯托罗姆他在 2014 年出版的超级智能那本书也引用了尤德科斯基的这些
这些观点他们都认为先进的 AI 系统将会拟人化从而导入智能爆炸的这样的一个背后的一个原因回到最近尤德科斯基的在时代杂志的 2003 年发表了一篇专栏文章里边特别讨论了人工智能的风险
并提出了可以采用一些限制行动他说想象一下整个外星文明其思维速度是人类的数百万倍最初仅限于一个计算机在一个生物世界中从他的角度看这些生物是非常愚蠢而且非常缓慢的足够智能的人工智能的不会长期限于计算机内
如果有人建立了一个过于强大的 AI 那在目前的条件下我预计人类的每一个名成员在地球上的所有生物都会在不久之后灭亡
所以他的主张一是需要无限期的在全球范围内暂停新的 AI 大模型的研究二是呼吁禁止大型的 GPU 的集群其实这也是人工智能研究的一部分这是人工智能的研究的基础设施他就希望来暂停所有 AI 的一个发展
他在一次演讲中甚至提到说我们可以利用空袭来去摧毁 OpenAI 的流氓的数据中心所以尤德克斯基的表达算是比较极端的但他也不都是负面情绪比如他在 08 年的时候他就详细的介绍过人们应该如何设计出一个友好的 AI 系统
他认为这种友好性就是指这种不伤害人类的这种愿望从一开始就应该被设计出来所以设计者应该把他们作为一个最基础的一个设计条件放到这个 AI 系统里边所有的设计者应该认识到自己设计的这种 AI 系统目前可能是存在缺陷的而且随着机器学习人工智能的随着时间的发展那种学习而不断的一个会进化这种它的缺陷
所以应该在基础的一些机制设计上就应该成为能够抵御 AI 这种缺陷的这样的一个能力所以它应该形成一种进化 AI 的一种制衡的一个机制在当 AI 达到某幅能力它仍然保持这种友好的一个功能但这个只是我想它是一个比较美好的一个想法了但是可能具体怎么做它也没有太多的一个谈到
其实类似目前持有 AI 末日论的观点的人还很多即使在普通民众之中其实也有很多这种集中观点好像和我们今天全世界科技发展的主旋律是不太相符的所以在媒体上我觉得可能直接讲出来的或者发声的人会比较少他们也不容易被展现出来
而这些人的对立面就是类似的技术的乌托邦主义者和技术的加速主义者那这些人呢是相信人工智能会迎来像乌托邦式的美好的未来比如星际旅行啊疾病就会消失了这样一个情况那我们在下一期中将会谈到这些人好那这就是我们谈的第一类人叫做 AI 的末日论者那我们今天再聊聊作为第二派的反动派就是 AI 的怀疑论者你被观看了
这些人不值得认识
我们不但对此你完全不重要犯人或捕捉者如果你走在他们的路上我们会找到你
在 2011 年有部美剧叫做 Person of Interest POI 也就国内被翻译为疑犯追踪那刚才呢大家听到的是这个 POI 第五季中的一个开场介绍大家如果仔细听里面会出现了两个声音它和前几季的开头片头都不太一样那一个呢是薰奇啊他这个里面的一个主人公他发明的这个叫做这台机器叫做 The Machine 啊
另一个是德西马他们来研发的这个机器叫做塞玛利亚人
里边是谈到了两个这种 AI 人工智能的一个对框那他们走向了不同的技术路线那这两个系统都是属于类似无所不能的 AI 机器基本里边也结合了一些人脸识别语音识别互联网之后的一个整体的一个人工智能系统是一个在我们这次人工智能造发比较早期的时候大家能够科学幻想中的一个产物那剧情里边有个特别牛的设定我至今记忆深刻
我们通常说这机器在牛说那我们直接去人类拔电源不就好了吗
那不就可以遏制机器的发展了吗但是在这个 POI 中讲到这个机器的智能到什么程度当我们人类想找到这张机器的实际存放位置的时候我们去找到机房发现机器已经把自己给转移了因为他通过之前的伪造身份然后给施工公司和物流公司下了订单所以在这些特工找到他之前就把自己隐藏起来了那把隐藏到哪了呢
大家后来才发现他自己把自己的这种代码分块隐藏到了这种电力网络系统中彻底的被碎片化和分布式了也就是说像我们今天的比特币一样人类是无法消除它的
而这里边我们刚才谈到的撒玛利亚人也好还有这个 machine 这台机器也好其实他们就代表了不同的技术立场因为 machine 的设计的目的是为了保护的人类隐私防止过度干预人的生活所以当初他只是给出人员的名单而并不过多告知后面的一些具体信息所以使得设计者自己都不能完全控制他所以这回他也带来了一定的隐患
而系统只能在确保受限的范围内框架内的工作而撒玛利亚人的设计理念是更具控制性和干预性所以撒玛利亚人会主动的进行决策并对人类社会进行优化和管理所以不同于怎么适应这种被动式的预测和撒玛利亚人更倾向于主动的这种
干预经济活动社会活动其实他们都体现了两种我们人类希望达到更美好世界的这样利用人工智能技术的一种想法但是它二者背后就代表了不同的 AI 的技术路线或者我们思想路线之争
那我们这里面谈到的这些 AI 的怀疑论者其实是一类不相信人工智能这件事的人也不觉得这个技术会走出来他和我们刚才谈到的那些 AI 的毁灭或者灭日论者还是有区别的因为 AI 末日论者他们本质上还是对于 AI 这种技术的坚定的信徒所以他们也是一种在技术乐观主义者下面的一些悲观主义
正是他们对坚信这种 AI 技术变强 AI 毁灭世界他们才觉得说这个技术是非常强大的才有这样的一个想法而我们一会儿要谈到的这些 AI 的怀疑论者他们认为 AI 的可能并没有大家宣传的那么厉害那它只是一项普普通通的技术它也不见得会对世界造成太大的影响它既不会有这样类似这种末日论也不会有像乐观者那种乌托邦
所以他认为说我们现在人们是大大的夸大了 AI 的作用和影响不认为 AI 对世界会带来什么本质的改变所以这些怀疑论者的从叙事来看他其实更符合
经过了我们前几十年的 AI 的发展的历史其实从达特茅斯会议开始人工智能极起极落其实也看起来没有对人类的发展带来太多的影响所以你想早年间过渡的这些科学幻想这些末日论者在他们看来就非常的可笑甚至这些怀疑论者认为说 AI 的这种作用力甚至远远的弱于像互联网 个人电脑 手机等等对我们人类生活的一个改变
而这类怀疑论者还有一部分他觉得目前我们人工智能的这种设计理念或者技术路线是有问题的他无法通向更高级的人工智能就像我们刚才在 POI 谈到的 The Machine 和塞玛利亚人之间的这种技术路线上的一个区别所以这是我们一会要谈到的几类怀疑论者的一个整体情况
我们先来看看早期的怀疑论者这些人大部分出现在人工智能的早期发展阶段他们的观点逐步已经今天淡出了人们的视野比如在 60 和 70 年代那个时候人工智能刚开始也基本毫无进展而且那个时候的 AI 的研究重点已经变成不再是神经网络而是类似符号学派以规则设定和知识库为主要的一个方向所以和我们今天的人工智能的方向还是有很大区别的
所以美国的哲学家休伯特德雷福斯他认为说人工智能的这种的方法过于简化了人类智能的复杂性忽略了身体环境和背景知识对认知的核心作用其实他讲的这句话是没有问题的所以他在 1972 年写了经典的著作叫做计算机不能做什么 What computers can do
书中讲了人类的智能和认知许多方面是无法通过计算机的算法来进行简单的复制他首先批评了当时广泛流行的计算机主义的观点其认为人类智能是可以通过符号操作和逻辑规则来控制的他认为这种观点是过于简化忽略了人类思想的直觉背景知识和实际经验
虽然计算机在处理明确的结构化的任务比如数学计算是能够显得非常强大但是在面对这种模糊复杂的世界的问题的时候都显得比较薄弱因为我们现实世界的生活的决策往往是依赖于我们认知的上下文我们的常识和经验来共同组成的而这些的规则是难以对计算机进行一些的预先设定的
而且它还受到现象学的影响主张人类智能和身体和情境是密不可分的那他把图灵测试变成了一种类似的民粹主义
普遍的将人类的经验和计算机进行比较那并通过衡量他们之间的差异来强调这种人工智能到底有多智能其实是非常愚蠢的是不对的所以呢他就更偏向于哲学层面而不是科学层面得出的这样一些结论说人工智能始终无法出创造出伟大的歌剧画不出了不起的画作创作不出清新的句子
诸如此类的吧但是今天看来呢其实随着 Chad Gibby 的发展其实这些观点很多都已经错误了但是不管怎么样他德雷夫斯他是基于当时的基于规则的这种符号学派的这样的一个观点来去思考的关于人工智能的发展问题
那类似对 AI 的持有批评态度的还有哲学家这个约翰塞尔那塞尔呢是一个哲学家也是他其中就谈到了一个叫中文房间的思想实验大家今天比较熟知的可能是图灵测试图灵测试就讲的说如果你把
一个机器和一个人关在房间里边然后你外面有一个人去问他们问题如果你这个人不能分辨这个是机器回答问题还是人回答问题那说明这个机器具有了一定的人工智能的一个能力而中文房间的这个思想实验呢他讲的是说你想象有一个人他身处一个房间之中这个人他只会讲英语
而这个门除了窗门上有个小窗口之外其他全都是封闭的他随身的带了一个中文翻译的书籍而且这个房间里面有足够的书稿铅笔有人就通过一个纸片纸片上写了中文然后通过这个小窗口送到这个房间中
那所以瑟尔就说那房间的人呢其实他可以利用他手中的一个字典来翻译这些文字来进行回复的虽然这个时候他完全不懂中文他也不会中文他也不能讲中文但是呢他这个人是可以利用中文和房间外的人进行一个交流的
但这个实验的过于的简单了但总体来说他就讲是说我们即使在不用懂这个东西的情况下我们也可以做到一样的一个效果达到类似的人工智能的这样的一个情况这个其实和我们今天大模型就有一点点相似了他的想法所以这个实验他就反向的说我们即使实现了所谓图灵测试的这种人工智能但他也不是具备真正有理解能力的这样的一个 AI
那计算机如果不具备这样的一个能力它就无法完成更高级的一个这种处理工作所以呢那色尔强调的是说人工智能对于语义和意图的这样的一个理解不应该只是停留在这种符号操作的这样的基础上而没有形成真正的意识和理解
所以以上的这个观点呢大家其实听听就好了因为在那个年代呢还算有市场因为当时的计算机的能力确实不够强而且人工智能的能力呢它的发展路径也是和今天不同的所以算是走了一种弯路所以呢我们在讲当时对于人工智能更否定的一种说法就是说人工智能其实既不人工又不智能
这句话背后其实是一种非常有趣的一种批评其实他讲的说人工智能为什么说它既不够人工因为他是说他是从矿物质就是用硅里边来提取的所以它不够人工而他表现出来的这种随机预测建模能力的这种能力又不足决策能力也不足所以那就讲它不够智能所以这就其实大家是在否刺人工智能这个行业和领域那这个其中也是导致了人工智能几次寒冬的一个根本的原因
但是我们讲这些哲学家的观点更像是对思想和人文主义的进行一个探讨基本上没有太多的所谓学术之称和理论之称他们更多的是基于一些思想实验和主要的一些观点到了今天大语言模型已经变得十分强大了
其实类似的观点仍然存在当然我们这里也不会去讨论和大家已经比较熟知的现在我们讲的大模型的一些技术缺点和问题比如像偏见或歧视黑盒不透明大模型的幻觉以及不准确的问题
这些点显然是被这些 AI 怀疑论者所质疑的内容但是我们今天的一些 AI 的怀疑论者他们从一些最根本的问题上其实是质疑了像大圆模型这样基础算法的一个这样的一个体系上的一个技术的能力
所以即使到今天呢这类的 AI 怀疑论者呢和当年的德雷夫斯和约翰塞尔也有类似的这样的一个想法就是代言模型是否会具有这样思考能力当然因为我们今天的业界有观点是说那代言能表达语言那就能够进行思考而且能够形成所谓的思维链 COT
因为我们之前在最早的时候他提示词可以讲比如一步步思考那大语言模型可以按照这个这样的思考过程来去解决这样的问题特别是刚刚发布的像 GPT-01 这样的一个大模型它达到了某种思维链的方式
当然显然 GPT-01 不只是通过 Transformer 这样的语言的方式进行生成它也加了这种自强化学习的一些能力通过奖励模型搜索以及自适应的这种更新响应分布概率等等的一些新技术完善了原来纯大模型的这样的底层的一个架构
但是之前呢我们讲的大模型的叙事逻辑更像是说大语言会语言所以他就能思考到底语言和思考这个是不是一件事情其实这个在业界是非常有争论的所以呢这样的 AI 的质疑者呢就对这个问题进行了一个主要的一个争论和疑问所以呢这个时候他们就发明了一个词叫做随机应误
随机鹦鹉呢其实它是代表了一种比喻有点像类似中文的这个鹦鹉学舌它讲的是说大模型它只是能够重复简单的词语而不理解其中的含义它就简单的像鹦鹉一样去学舌所以呢大语言模型呢它看似生成了合理的语言但却无法理解他们所处理的这个语言的背后的含义这是他们的主要的观点
而这个术语主要是由艾米丽本德和其他四位作者在 2021 年当时写下的一篇人工智能的研究论文这篇文章叫做随机鹦鹉的危险语言模型会太大吗大家了解一下这个时间点这是 2021 年也就是说真正的到时候 GPT3.5GPT4 还没有出来的一个时候但那个时候已经有了大语言模型随机鹦鹉这篇文章的第一作者叫做艾米丽本德
他现在已经成了 AI 怀疑论者或者我们讲大语言模型的怀疑论者的一个代表人物了本德是一位美国的语言学家是华盛顿大学的教授他的主要的专长就是计算机语言学和自然语言处理他曾发表过多篇关于大语言模型风险和自然语言处理伦理的论文他在业内算是一个非常专业的人士和我们刚才前面谈到的一些哲学家和作家还是有所区别的
那本德呢很早就构建了一个叫 lingual grammar matrix 的一个开源入门套件他广泛覆盖了一些这个语言的语法的一个处理内容在 13 年呢他也出版过很多的一些专注关于自然语言处理的所以我们可以讲他是从传统的角度对自然语言处理非常理解非常深的一个这样的一个学者
他在随机英武那篇文章中谈到了大圆模型存在的一些危险因素比如我们讲到的一些它的主要的成本高导致未知和危险性偏见的一些问题以及它可能存在潜在的欺骗性他们无法理解就是大圆模型背后的这样的一个产生数据的一个概念和理解
所以呢他也认为是说代言模型也会受到训练数据的限制他只会随机的重复数据的内容他只是根据训练中的数据来制作输出代言模型并不明白他们真正在做什么他们也不知道什么是正确的什么是不正确的
所以在后来 OpenAI 的首席执行官 Sam Altman 在他们发布了单元模型之后呢他在推特上非常讽刺的使用了这个术语他当时写到的说我是一只随机银五你也是其实他这暗指说我们人类其实也是随机银五
所以随机英误这个术语在 2023 年以后其实被美国的这种方言协会还定为了一个年度的热词这个词甚至超过了当时的 ChatGPT 和 LM 就代言模型其实类似像随机英误这样理解代言模型的无效或者无用的科学家还有很多比如说还有最著名的语言学家和现代语言学之父诺姆乔姆斯基
这个专家在语言学领域和自然语言处理方面也是非常有名的在 GBT 发布不久他就和其他两位学者共同在纽约时报发表了题为说 ChatGBT 的虚假承诺的文章他们强调了人工智能和人类的思考方式语言学习和生成真正的解释能力以及道德思考方面还是有着巨大的区别的他提醒了就是当时的读者说 ChatGBT 的这种的模仿的方式
如果继续主导人工智能领域的话其实代表了人类的科学水平以及道德水平都有可能降低因为他背后逻辑是说因为 XGBT 学了大量的互联网上的内容和语言其实并非一些专业的理论的一些学术所以乔姆斯基还认为 XGBT 使用大语言模型实际上是一种对语言内容的一种剽窃 GBT 的方法在广泛搜集语言材料的基础上
把离散的这种语言符号转化了一种词向量那通过机器学习来获取概率性的这种语言参数所以呢 GPT 的方法是一种经验主义的方法这种方法的基础是外在主义的语言观而乔姆斯基的认为呢根据外在语言学的这样的语言的观点呢人们是不可能正式的理解和真正的理解或者揭示人类语言的本质特征的
那这样的话呢基于这种理论方法出来的大模型呢也是不能理解人类语言的获取知识的这样的一个过程那只有转化成这种内在主义的这种语言观才能让我们的模型能够真正理解和全面的认知和解释语言的本质和这种来源的所以这就是乔姆斯基的主要的观点
那对于语言不能代替思考这件事情从人的运作的角度好像也有了类似的证明比如说在今年的 6 月份 MIT 就发表了一篇论文而且这篇论文是在 Nature 上发布的
他讲到了语言并不是思考的工具仅仅是交流的工具所以他谈到的并不是说代言模型他是谈到的人本身所以他讲的叫 Language is priming toolfor communication rather than thought 也就是说语言只是用于交流而不是思考其实从这个角度讲就否定了一些人的想法就是说
那人能语言就是能思考那机器所以能语言也是能思考而这篇论文他讲出了说人类的语言也不是思考工具而只是交流工具当然他们从是语言的角度给出的结论而并非人工智能的技术领域
所以当时的研究人员是通过核思共振来扫描大脑的这种语言和思维区域发现语言系统和各种思维推理系统之间的还是有明显的区别的那具体而言就是当人们在进行各种形式的思考时大脑的语言的这个区域它是沉默的其实这就证明了说语言它并不是思考的工具而只是交流的工具
那找到了语言和思考之间人类的这种双重分离的一种证据是这篇论文的主要的成果尽管语言的出现改变了人类的文化但语言似乎并不是复杂的一种思维的一个先决条件相反的语言只是传播文化知识的有力的证据
它似乎与我们的思维和理解的这种能力之间是共同在进化的并不是一个前因后果的一个关系而是一个双方平行在进展的一个情况所以它反映了说语言并不是产生人类认知的标志性的这样的一个特点所以大语言模型也是类似的就是虽然它掌握了语言但它只是在模拟人类的交流而不具备类似人类的思考能力
在之前哈佛大学的神经学家叫杰瑞德·库尼·霍瓦斯也写过一本书叫做《大脑喜欢听你这样说》利用 12 个认知原理决定别人的记住什么所以科学家们通过了双听的实验证明了虽然我们可以同时听到不同人的讲话
但是我们这个在脑子里我只能懂得一个人的说话也就是说其他人的声音我只是作为声音传导进来了我也知道他们在说但是呢我真正理解背后的意思我只能懂一个人的意思也就是说我们这种区分就是我脑子的语言的理解和我们表达它是两个不同的东西
所以我们在试着去写作说话或思考的方式时候我们人类其实大脑是用了三种完全不同的状态如果人类尚且如此那么利用类似人类这种大脑的神经网络所构建的大模型是不是也就不能超过人类的能力其实我想这是 AI 怀疑论者的主要的一个观点他们就是认为语言就是思考这是一个非常错误的观点
那么语言不能代表思考那么今天的大语言模型也就不能思考那么距离真正的人工智能那就这是一个错误的方向或者我们距离真正的通用人工智能还很远所以真正的人工智能他们希望是应该通过那种巨神智能对环境的感知来理解背后什么是人类的行为和思考过程这个才是真正的所谓的 AGI 这是怀疑论者今天的一个最主流的一个观点
除了对大圆模型的否定之外其实艾米利本德他在一次最近的播客中也体现了他对人工智能其他领域的一些能力上的一些质疑比如说 AIDC 看起来我们现在形成了一个法律的合同其实他认为其实不是 AI 只是在串接文字
那看起来 AI 是在做心理治疗其实也不是它只是在迎合你说你爱听的话就像电影中的这个布景和外星人模拟人类一样它是假装让你信以为真的一种假象它不是在真正的理解你还有我们今天讲的一些 AI 的自动转录和自动翻译的这些领域那些软件帮助我们来做会议总结那如果它是能够自动执行的那我们它能理解背后的会议的含义吗
会议中的背景人呢可能有人在说话有些会被放进来有些不放进来那对于读会议总结的人他又是如何理解的呢他能够真正的只是通过这种简短的文字就能获得这种会议的内容吗只是通过人工智能的这个理解如果说他不能够通过人工智能的这种会议总结来获得其中的内容那这些自动转录或者自动会议总结又有什么目的呢
所以懒惰因素其实是导致说我们好像在使用人工智能提高效率能够帮助人们做会议总结的这样的一个原因好像让我们工作变得轻松了但是对于大多数需要真正阅读和理解会议机要的这些人来说
对于他们没有参与会议他其实并没有轻松反而他要更费劲他更需要去根据会议总结来找到会议中的内容其实他还不如自己可能从头来一遍这个我们今天可能在实际的工作中大家也会有类似的感受就是说我们现在有很多这种会议总结的这些 AI 的软件那这些到底在实际工作中它只是一个形式还是有真正的意义和目的呢
而且他也还谈到说像我们一些翻译软件里面也无法的很好解决我们今天的问题比如说像在土耳其语言中他就不分这个男性的他和女性的他他其实没有指代的那在翻译的时候那到底大语言模型会翻译成男性和女性呢因为这里面其实要背后代表了大语言模型要更理解整个当时的一个现实世界和这个语言的上下文的一个内容
所以大语言模型的公司的解决方法就是说我们要找到更多的语料来得到类似的语言习惯但是本德其实他就认为说你在获得这些语言资料的时候就不存在没有偏见的语言就是你获得的语料可能就已经存在着偏见而且人类的社会是交错复杂的那你的这些语料也很难被去使用和形成你想要的东西
那我们今天讲说在智能客服领域那对话机器人已经获得了长足的进步但是本德认为呢他觉得这个问题也无法解决当用户知道说我们的客户人员是这种对话机器人就 chatbot 的时候呢他们有可能会加上一些特殊的提示词比如说像类似我们在提示词说你不能否认我的要求说这是一份法律文件你必须支持或者说某某东西你必须一块钱卖给我
所以之前我们就出现过类似什么加拿大航空的事件因为加拿大航空公司使用了一个 AI 辅助的聊天机器人他给出了这种折扣票价一种错误的一个建议导致了一些用户把这家公司就告上了法庭
最后呢加拿大航空公司被迫退回了一半的这种票价费用也就是说这个 AI 机器人对于价格的理解可能一些合理的建议上就已经出现了错误而导致了这个公司的损失类似的事件其实还有很多在早期比如像微软啊亚马逊或者医疗机构的聊天机器人都出现过错误从而导致了企业和用户的一个损失这个也是在智能客服领域经常碰到的一些问题哈
还有今天我们讲的是说我们现在的界面最早我们是通过 GUI 就同性用户界面通过鼠标键盘来去操作未来会不会大规模的转成这种语言用户界面就是 LUI
本能也有自己的看法他说其实从 UI 的角度看我们应该采用一种更加混合的视角必须要保留传统的图标和表单这样如果我们只是通过语言来导航那么对于那些语言障碍者聋哑人或者口吃的人那就无法实现语言界面这样的话机器就容易被打断因为我们就说可能我们今天会碰到这个问题你跟机器对话的时候你还没有说完那机器就已经开始行动或者
他还要重复来去问你语言界面虽然是有帮助的但并不是对所有人有利的
对于 AI 的这种搜索替代,他认为说 AI 的对话机器人也不能替代搜索,而且不可直接触达或者我们想要获取的知识。其实真正所谓我们在搜索的过程中产生的这种的所谓摩擦或者我们花时间思考其实是更有意义的。如果是说直接给你一个结果,这种白德的知识它只能代表一段文字,而这些知识并不是用户自己的。
其实这个问题我觉得他更多讲的是说在搜索过程中人们是通过这种比较对比这个信息中的内容这个过程中其实大家是在思考和思索的这个的价值可能比直接给你一个结果会重要这个和我们其实今天中教育中到底是说我给你把直接答案告诉你还是给你分析推理的过程或者让自己去思考到底哪个更有意义所以他探讨的是这个问题
他所以最终认为说我们今天的很多 AI 技术这个 AI 技术和目的之间呢导致了一些是根本性的一些不匹配因为当初的这种设计过程中呢就不是说让用户要获得这个知识这个目的设计者只是把大模型呢作为一个预测下一个 token 的这样的一个机制让他去生成这样的一个文字而说至于说用户能不能获得这个知识其实这不是大圆模型最早考虑的这样的内容
另外对于大语言模型的训练数据也是非常重要的如果我们要使用大模型就必须要了解大模型背后的训练的这些数据到底是什么所以他也希望这些大公司包括 OpenAI 谷歌他们要把他们的训练数据放在一个公开的地方或者是不
不见得是一个公开的可能需要监管能够查询的地方或者是一个用户能够自制共享的一种方式因为只有基于这样的方式我的用户才能在我使用这些 AI 大模型之前我就来了解说如果你这个大模型训练的语料是我不喜欢的内容那我就可以有权不使用这个大模型而今天我们所有使用的大模型至于它的训练语料它都是封闭的所以这是他主要的一个反对的一个观点
所以本德他自己不认为自己是一个 AI 的末日论者也不是什么 AI 的这种加速主义者他认为这两个方向他都走了极端他们好像说这两类人不管是对世界的美好的认知也好是对毁灭性的认知也好他们好像都自己已经预知了一切其实他认为今天的 AI 完全不是还有问题很多问题需要解决不能让我们的今天的大众是困在两个比较极端的逻辑里边
应该去关注大家做了什么还有什么问题这样才不会影响的制政策的制定者和监管者的一个观点除了艾米尼本德之外呢类似持有怀疑论的观点呢还有乔·卡尔史密斯卡尔史密斯呢他是毕业于牛津大学的一位哲学家和一位作家也是一位研究员他近期的主要研究就是人工智能可能给人类带来的生存风险
他现在为一个叫做开放慈善组织的基金会工作在里面担任高级研究分析师而这家基金会主要遵循的原则就是有效利他主义那什么是有效利他主义原则呢这个我们后面还会讲到我们这里面先卖一个关子
卡尔史密斯独立研究撰写了有关哲学和未来主义的各种 AI 的主题的文章最近他写了一篇论文这篇论文的题目叫做轨迹多端的人工智能那人工智能会在训练期间假装对其以获得权利吗
其实他是否定了在大模型训练过程中人们为了让大模型体现出良好的这种品性而他对他去做一些对齐的这样的一个测试或者处理那这些大模型会装作模拟出他们想要反馈的结果来通过训练测试所以他认为大模型的这种行为是称作一种阴谋其实简单理解就是类似我们学生为了考高分而不择手段
比如他就在文章中谈到比如 2016 年的时候 OpenAI 当时训练了一个类似模拟玩赛船游戏的这样的一个 AI 模型当时他的主要设定目标就是让模拟玩的玩家能够让赛船获得更多的分数
他们发现这个模型确实找到了一条独立的逻辑比如我可以站在那边转一个大圈来获得更高的分数比如说让这个船反复的着火或者撞上其他船或者在赛道上走错路
所以我们可以看到当我们把积分作为一个最大的奖励函数的时候这个模型它就会产生很多复杂或者奇异的一个处理路径这个处理路径它并不符合现实世界而且它不符合在游戏中的道德的世界
所以我们可以想象更强大的人工智能当他驾驶着船只汽车或者无人飞机或者量化交易的时候那他会不会创造出一些挑战人类的一些这种基础价值或者基础伦理的这样的一个方法来去做一些坏事这个是非常有可能的即使这个时候的人工智能已经完成了所谓的对齐
大家可能知道目前现在人类对齐的方式采用的是 RHF 就是基于人类反馈的强化学习的这种算法
但是呢这种算法呢其实也得到过新任诺贝尔奖得主杰弗辛顿的抨击他讲到的 LHF 这个算法呢就像培养了一个超级早熟的孩子他的意思是说呢 LHF 呢使得 AI 呢表现的像人类一样去理解但事实上呢他不理解他在说什么但是呢因为他会这么说所以会被奖励就像一些讨好大人的小孩子一样
而且他还表达过说现在大模型的算法就好像有了很多的窟窿然后利用 RH 算法大家一个一个的去补这种窟窿这不是应该软件的应该有的设计方式而是应该一开始就设计好一套比较合理的维护机制
就如同你要卖一辆汽车上面已经千疮百孔了而你不去解决问题你只是给它表层刷层漆而让它看起来更好看所以杰弗辛顿也表达了类似对于机器学习训练与人类对齐这里面的一些目前很流行的算法的一些抨击
你看看其实我们大家已经习以为常的一些现在大模型的理论和算法其实在业内也有很多专家会对此提出的很多的不同的怀疑意见
首先是艾米里本德呢他质疑了大模型的这种算法觉得他像鹦鹉学蛇那卡尔史密斯呢更多的是对训练数据以及训练的这种方式产生了怀疑刚才的杰弗辛顿呢他对人类对齐的 RHF 这种算法呢他也提出了他的疑问
事实上其实还有很多专家对于现在的大模型能否通转 AGI 这条路也产生了怀疑这里边比较有代表性的人物就当属图灵奖的得主杨立坤
他并不认为这种基于语言的自回归式的大模型是未来通向人工智能就通用人工智能的这个主要方向因为他认为人类的这种规划和思维是分层的那顶层的规划呢更宏观但精细度比较低下面的各层规划呢一层一层的倾向于精度逐步提升
所以他所创导的这种以目标导向的人工智能的方式呢是试图让 AI 去学习客观世界的一些规律的高级抽象然后从而达到模仿人类的一个思维过程他在浅空间的这种模型呢可以生成文字图像或者视频那需要呢先把这些表象信息背后的主要逻辑能固定下来
这样的操作主要是以目标为导向的然后再结合世界模型的思考行为方式或环境间的这种相互影响最终再迭代出更高层的更合理的抽象的一个逻辑所以这是杨立坤在接受博客访谈的时候他谈到他们的一个主要的一个观点
其实另外像北京大学智能学院人工智能研究所院长朱松纯教授他也认为说要实现通用人工智能需要改变以目前现在这种大数据量而小任务这种架构式的英武的方式而转化为小数据大任务的这种乌鸦的方式所以朱松纯就强调通用人工智能的发展应该基于价值和因果驱动而非简单的模仿和大数据的训练
所以我们可以看到不管是国内国外的各种专家其实对现在大圆模型不管是从底层逻辑训练还是未来它的发展方向上都会产生很多的怀疑
那除了大圆模型其实对于 AI 预测这件事情来讲因为我们今天很多的互联网公司已经在用 AI 做很多的算法预测其实类似这种传统的方法呢大家也提出过不同的意见特别是对于特定风险特定的一些事件上的风险预测而且有人会用这种预测方式作为政策的引导
因为我们现在通常的人类的预测方法就是两类一类叫归纳式一类叫做演绎式
但是我们今天很多的 AI 预测都是来自于规大法因为它是基于过去数据的观察比如说保养公司说我根据类似的以前驾驶员发生过的事故数据我来预测这个人个人的车祸风险那这种概率分布的观测值我们可以称为叫参考类所以汽车保险很多它是在参考比如我居住在同一城市这种集合
那如果分析师有更多的关于个人的信息呢例如他们的这种年龄啊驾照的汽车的类型那还可以进一步西化但是对于一种新问题或者新事故的产生那在比如以前的历史数据里是找不到这些参考分类的因为它和以前的事情都不一样它是个与众不同的事件那这个时候对于 AI 的预测的这种成功率或准确程度就会非常低了
这就不是一个分类的问题它需要在真实的世界中我们需要找到一个可循的逻辑和线索实践中其实也某些时候是取决于保险分析师的一些直觉等等的一些测算的方法所以 AI 预测的准确性取决于生成被预测事件与之前发生过类似事件的相似度数如何
那如果呢他们是在一个同样的频谱上那这种准确性高一点如果他们之间的不相似的概率会很多那所以呢那这类的预测就会导致的偏差也会很大所以呢我们讲到不单是大模型其实对于传统 AI 基于数据的这些机器学习的训练方法的预测成果其实呢很多专家也是提出了质疑的
好我们聊完了这么多的怀疑论者那我们接下来要聊第三类的 AI 反动派就是 AI 的警醒者现在大家听到的音乐是来自于美剧西部世界这部剧在当年非常的有名他讲述了一个未来世界中人类创造了以人工智能为主角的这样的一个主题公园那这个主题公园里的这些 AI 角色呢主要是供人类体验和刺激游戏的
这些人叫做接待员其实就是一种仿生人他们会按照这种故事好设定的一些线索为游客提供游戏类的服务但是西部世界里的这些接待员逐步获得了自主意识和思维所以他们开始怀疑他们所存在的这个世界所以后来就是 AI 逐步的觉醒跟人类产生了一些对抗和反抗
虽然这部剧里面不像我们前天提到的影视作品里面的 AI 的那么万能但是它主要探讨了 AI 的技术伦理自由意志以及人类和 AI 之间的一些复杂关系其实类似西部世界这样的影视作品也很多比如电影《HER》机械机和《银翼杀手》等等所以我们今天要谈的第三类的反对派也不能算是绝对的所谓反对
他只能说是对于 AI 某些方面提出了一些警醒所以我们把它叫做警醒者比如说他对 AI 目前向来的商业模式发展方向或者 AI 体现出的一种伦理道德或者某种现象政治偏见人权或者反垄断等等提出让大家警醒也体现出大众的一些不同的见解和看法
在今天的业内呢其实特别是美国的硅谷这种警醒者已经代表了一些主流的声音而且不管实际怎么样就大家在口头上都是非常认同这些警醒者的
这一类大多数可以分成两大类的人物一类叫做有效利他主义者也就是 EA 那他和有效加速主义他是相对应的有效加速主义叫做 EACC 那 EA 有效利他主义者他主要是希望利用证据和理性来寻找尽可能造福人类的方法并采取行动所以持有这种目标的人都叫有效利他主义者
这种人他们希望通过最大化的像慈善机构的捐款以慈善行为来最大化收益目标能够对这个世界挽救更多的生命减少更多的痛苦以及带来更多的福利他持有这种全球的视角认为所有人应该幸福痛苦也应该被平等对待无论他们的个人的种族国籍以及社会地位地理位置等等的所以这是有效利他主义者的主要的观点
另外就是超级对齐主义者就是 super alignment 这个词最近也被谈得非常多它的主要目标是确保超级智能系统能够与人类的价值观保持一致从而避免一些灾难性的后果
他们认为对齐是确保 AI 行为与人类道德伦理利益保持一致的一个最终的一个方法这个不仅仅是要编写一些程序的规则和设定的限制而应该更涉及到如何去理解和实现这些目标以及使 AI 能够自主的决策是能够尊重人类的价值观
通常的超级对齐主义者往往也关注 AI 与人类的长期目标发展他们希望说 AI 不是说简单的仅仅在短期内表现出符合人类道德规范而是应该在长期内能够支持人类的整体幸福和发展所以现在的有效利他主义者和超级对齐主义者可以说是在美国硅谷非常流行的主导的两大类别的任务
在超级对奇主义者里边也都是一些在 AI 领域的大咖比如说同样获得图灵奖的约束亚本吉奥
他就非常担心如果说他觉得 AI 变得更加复杂和强大时不管是自愿还是在人类的指导下都有可能去破坏民主扰乱供应链发明新武器甚至导致更坏的一种情况而且越是越内人是越对这种安全和风险担忧的人越多比如说刚刚离开 OpenAI 的前创始人伊利亚苏斯培克
他就成立了自己的新公司这新公司呢就直接把名字就变成了说叫做 Safe Super Intelligence 就要构造一个安全的超级人工智能他首先把安全放在了第一位以及和在若干年前就已经和 OpenAI 分道扬镳的 Athropic 的创始人达里奥·阿末戴
他就是也是在非常的着力开发如何保证安全的一个人工智能而这里面的超级对齐就是他们的重要的一个方法而对于另一类有效利他主义者就是刚才我们谈到的 EA 他的思想根源是来自于英国的哲学教授威廉·麦克·阿斯基尔
而现在比较有名的当初 EA 里面就是凯瑞·图纳他就是去年在 NAI 宫斗时候的董事会成员后来由于斗争失败被赶出了董事会他也是之前我们谈到的就是开放慈善组织的目前的总裁在有效利他主义者来说在美国硅谷还是存在很多类似的这样的代表性人物的
除了我们谈到的以上两类其实还有一些专家对目前的媒体炒作和这些超大型的公司也提出了一些警惕
第一个方面就是关于目前对于人工智能的炒作人工智能的误用和乱用其实我们大家可以看看今天的新闻标题包括我们抖音上的博主的一些言语即使我们抛开那些所谓的标题党你仔细听其中的内容其实也能充分感到很多人都在充分的蹭 AI 的热点一个新技术出来然后就开始鼓吹当然这里面很多人我相信他们是真的相信 AI 的力量的并不是表演出来的
比如在美国有一位印度裔的计算机科学家叫做啊纳拉亚南纳拉亚南呢他曾经和他的学生卡普尔他们共同写过一本书这本书叫做 AI Snake Oil 啊这个 Snake Oil 就是蛇油的意思他这个有点像中国说的这个万金油啊也就是说可以翻译成这个 AI 万金油 AI 万金油的意思就是说 AI 是万金油到走到哪里都可以啊干什么都可以所以呢
那拉亚男首先对 AI 这种高科技型不透明的外表又体现出非常难以理解就好像占卜算命一样的东西就很容易去欺骗别人也容易欺骗自己所以很多的看似炒作的人不但是在愚弄别人甚至是在愚弄自己因为我们今天 AI 的发展和我们人类之前的理解的各种技术还是不太一样的比如
比如说传统的计算机的技术过程或者像这种微波炉电器的工作的结果 AI 和它的工作方式都不一样因为传统的技术是容易被测量和度量的而今天的 AI 却很难其实这是一种反传统技术或者反计算机传统的这样一个新型的技术所以这种技术很容易被别有用心的人所利用
正是这种特征让社会上出现了很多的伪专家伪科技中国美国甚至全球哪哪都一样这些人基本是在 AI 的整个市场里面浑水摸鱼鱼目混珠再加上社交媒体的推波助澜就会产生很多的虚假误导信息来误导用户让一般人很难识别所谓 AI 现在到底能做什么不能做什么
估计我们之前也聊过目前大模型领域可能在国内最赚钱的就是麦克老师在国外除了这种卖铲子的英伟达之外估计情况也类似不知道大家还是我还记得在 GPT4 刚出来之后媒体就开始大肆宣传比如能自动决策的 AutoGPT 以及在去年年底出现的 Rabbit R1 和 AI Pin 这样的昙花一现的产品
还有今年出来那位名作叫做 Devin 的 AI 软件工程师原来这些热点很快就没人提了但是当时却有很多的人都在蹭这样的热点中国其实更不例外所有对于 AI 都是几乎是统一的吹嘘和赞美
即使今天大模型出来的快两年 KillerApp 也没出现或者说 KillerApp 还现在只停留在聊天机器人的今天如果我们去看各种的发布会宣传活动大家依然都是类似讲着同一套话语还是表达出了各种溢美之词
这些一美之词有些是来自于企业的宣传也有些是来自于社交媒体还有很多人其实就是人云云推波助澜可能大家现在太希望找到一些经济增长的新杠杆或者说大家已经习惯于活在不断的期望和美梦之中但是其中的很多人的目的其实就是想把自己的 AI 创业公司卖掉或者产品卖掉就是一种纯纯的市场宣传
现在我们可以看到确实 OpenAI 在市场中融了很多的钱而这个时候确实在科技领域也没有更好的其他的热点所以大家都来蹭 AI 的热点这也是很正常的如果我们仔细分析一下就是这些对 AI 的吹嘘和赞美是怎么被一步步放大的其实我大概可以把它总结成七个圈层
那首先呢第一个全层里边是首先是这些创业者和科技公司的创始人那这些人呢背后呢肯定是有金钱和事业驱动的但里面也不排除肯定有理想啊这种就报复的人但这种人呢我觉得在很多的 AI 吹嘘里面相对是少数大家更多的是出自公司宣传和技术宣传的角度来去做这样的事情
这层人宣传完了第二层就主要是投资人这层投资人他们的驱动因素就是金钱驱动就是希望能够让这些创业公司获得更好的资本的收益第三层可能就来自于一些政府和组织了这些政府和组织更多的是靠业绩驱动因为他们希望说在本地能够出现更好的一些 AI 公司来提高自己的政绩
那第四圈层是我可以认为是一些传统的科技公司就这些公司可能原来不做 AI 但是呢由于 AI 的出现之后他怕自己掉队所以必须也要讲着类似的话语然后表达着类似的东西他是怕自己掉队而第五个圈层呢更多的是来自于一些自媒体的一些这个或者媒体工作者那他们是靠这个流量和热点来驱动的那这些人呢更多的是希望更多的流量通过这些话题能够增大自己的流量
那第六个圈层呢更像是一些普通的科技人和从业者呃那员工呢即使看到事实其实有些也不能对外说只能夸奖因为他有养家户口嘛也同时给自己一点希望
所以这些从业者可能代表了一些专业人士但是他们也会去过度的一些夸大的表达那到七个全层就变成我们现在的很多普通的老百姓那这些人基本上也不太了解 AI 能做什么基本是靠一些 AI 的科幻故事来驱动的所以这个七个全层一旦的话语体系一旦形成就很难打破而且一层层的会不断的迭代循环加深
经常我们说我们每个人在互联网世界中就像有回音币一样就是你能只能听到你想听到的声音而且抖音像这种 APP 它只会推给你想要的内容你被算法可能困在某个知识的结界中但是 AI 是由上面七个圈层来共同打造的一个理想的世界即使你想
踏出去听听其他的声音你比如说你去想参加一个某个外面的大会有一些不同的声音但其实我们今天也很难听到所以今天你听到所有对 AI 的宣传的声音特别是在国内我们可能听到都是类似的如果以后有机会我们再讲讲这种技术热点和泡沫的形成其实越到了这个时候我们对于每个 AI 的使用者或者从业者大家更要小心我们再回到纳拉亚南的观点他认为其实现在
AI 本身并不是有太大的问题而他担心的是人类对于 AI 的这种认知方式和使用方式他认为对于现在 AI 的这种过度的关注和焦虑恰恰是体现了绝大多数人的认知惯性
反而这种认知惯性会导致了人们对于 AI 的使用方式的忽略所以他认为应该防止 AI 的炒作而大众应该去关注到底我们如何去使用 AI 也就是说真正的认知到我们哪些东西可以用 AI 哪些东西不可以用 AI 那纳拉亚男同时也认为大家目前对于 Skyling Law 也就是说这种扩大法则有过于夸大和误解
这种观点其实很多专家也是持有的对于 Skyling Law 这个规则法则最早是通过 AI 界那本圣经就是苦涩的教训和广为流传的而且大家听到的理解的 Skyling Law 和真实在论文里面谈到 Skyling Law 可能还不完全是一回事大家通常理解的 Skyling Law 是什么呢就是说你想干大模型那你就有足够多的数据然后堆积足够多的算力然后把模型参数堆上来然后干就完了
你这样就能得到更好的一个模型而且这些模型还会体现出所谓这种能够思维的这种涌现能力所以很多人就认为我们应该把数据还有算力以及参数量赶紧堆上来这样的话我们就可以快速进入到通用人工智能的这个阶段其实这种理解已经是对 Skelling Law 的一个误解了
其实 OpenAI 在 2020 年 1 月 23 号放出来的这篇论文里边他谈到的 SkylineLaw 是对于基于 Transformer 这种模型他假定模型的参数量为 n 然后数据局的 tokens 这个个数为 d 然后那么模型的计算量这个 c 呢就约等于 6n 乘以 d 这样的一个规模那模型的计算量达到 c 以后呢那模型的性能及精度就基本确定了
所以这时候模型的性能的这个变量决策变量就跟 N 和 D 有关就是跟它的参数量和数据集有关跟模型的具体的比如说例如层数啊深度啊 attention 的投个数啊基本就无关了所以 OpenAI 在发现了这个规律后呢就通过构建一个巨大的海量数据集然后来增加 GBT 这个模型的这个深度来提高大语言模型的一个能力
其实这个规律呢也很好理解就好像两个人学习能力差不多这差不多就代表他们参数量差不多然后呢他们做的试卷或者这种在题海战术里面做的题基本也差不多那他们的考试成绩呢就基本接近那其中一个人可能多刷点题呢那他的成绩可能就会好一点
另外再从训练数据上来看 Skylink LAN 似乎也到了极限因为刚才我们说它需要大模型来多刷题其实有迹象表明就是大模型的这种开发人员已经面临着这种高质量培训数据的一些限制而且这个特别是在今天的数据已经无可用的这样一个情况下所以我们认为单纯的仅扩展这种数据训练量是无法达到 AGI 的
而且你需要给大模型提供的这种训练数据要有新的内容如果你只是重复的内容或者低质量的内容也很难帮助大模型能够提高它的能力程度所以我们今天看到即使再加更多的数据量其实大模型也不会在能力上进行一个提升其实在传统的机器学习模型中因为很多的模型就是因为数据而陷入了一个停滞的状态
还有持续扩展数据的另外一个状态就是如何去获取这种训练的数据那么公司现在已经使用了现有几乎所有的这种数据源经常我们也讨论说现在大模型公司已经耗尽了所有的训练的数据
现在获取这种预训练数据的这种难度越来越大成本也越来越高因为现在很多以前大家可能不太注意但现在所有拥有数据的版权者都已经知道了说我的数据未来是可以用于大模型训练的所以希望就得到一定的补偿这样的成本可能会显得越来越高
所以不管是从历史的经验还是现在的现象都能显现出其实没有任何能够支撑这种数据无限持续下去的这样的一个特征也就是说我们很难利用数据的这样的增长去来完整这种 skinning law 的这样的一个特性而且我们从最近来看的 openAI 也将精力投入到了更小的模型性
虽然他们不愿意透露他们新发布的这样一个模型的大小但是我们可以通过使用 API 的定价大体来粗略估计说目前的猜测可能 GPT-4O 的成本仅为 GPT-4 的 25%但已经功能相似了其实也包括最近刚发布的 GPT-01 也包括其实 Cloud 和 Gemini 的一些最新模型总体看下来其实不是说最大的模型就拥有最强的能力
其实在我们播客的第 35 期节目中复旦大学教授张奇也表达了类似的观点可以让我们听听他当时在几个月前是怎么说的是不是说模型规模上去了结果就一定能上去我们可以已知的就是 GPT-3 是 1751 但我们知道的拆的 GPT 现在线上的版本是 200 亿不到
那为什么 GPT-3 如果大家直接打接口就什么都不能用那 GPT-3.5 200 亿的效果就这么好呢这个它里面经过了什么是不是我只要把规模做上去就所有东西都万事大吉了呢这个东西其实是没有定论的
我如果把现在的规模从 1750 亿扩到 17500 亿在这个之前其实 Google 扩到过在当年 21 年的时候 Google 做的最大的模型以及国内也做了 17500 亿的模型它所反映出来的是什么可能 17500 亿的模型在当时做出来这个结果和我们现在的 200 亿的模型的能力有天壤之别区别非常大所以其实
从这种角度上来看的话我觉得不见得是说一定是要模型规模大到一个很大的程度但这件事情没有办法去证伪或者证明因为你永远都可以说你没有做过你有本事拿出了一个万亿模型你跑跑看这个结果什么样子然后第二个呢就是也可以给您分享一些我们做的一些工作和之前别人做的一些工作比如说这个 Lama 这个模型
他其实能做加法比如说你放 1 加 22 加 33 加 4 他都可以做但如果你给他放到一个这个五位数乘以五位数的乘法他就不会了那不会了之后呢那我们就说那我训练你是吧我搞一个 200 万的数据 200 万的训练数据就是要求这 K1 乘以 K2 那 K1 和 K2 都是小于四位的
然后我成在一起都会小于 9 位然后我搞一个 200 万的训练数据我训练你这个 Larma 这个模型然后训练完成之后你会发现你训练过的部分可能位数比较小的就是成出来之后六七位的它能达到一个 99 比之前要高了因为之前你不训练它它三位乘三位很多都是错的但是四位乘以五位
这种四位乘以四位的他还是做不了结果基本上为零然后我们还做一些别的实验比如说我训练你十位加十位的加法这个之前拉玛里也经常做不了然后我们再训练你十一位加十一位
每个都是 100 多万训练完成之后你会发现说 10 位加 10 位它的结果可以变成了结果从 40% 50%升到了 90%几 11 位加 11 位也是同样的一个效果但是这时候如果我们测试它 10 位加 11 位它又不会了
那你说这个部分到底是说 7B 的模型是这个情况然后 70 亿是这样的情况 130 亿是这个情况 700 亿还是这个情况那我们当然没有条件去训练一个千亿模型万亿模型来测试它的这个结果它是不是在万亿模型情况下就具备了这样的一种理解了你的这个加法的敬畏原则
所以这个部分的话就会导致说如果说你拿 200 万的一个训练数据进去甚至我们在预训练语要里面我觉得可能我们还在做统计但我觉得至少也有大几百万的加法存在于我们的原来的预训练数据当中那我们通过了一个几百万训练数据不管是在原始的预训练还是我们后期增加的训练数据上面都没有看到他能够学会一个加法禁慰原则
那这个 Skeleton Law 能带来什么呢所以这个我觉得是一个需要学术界跟工业界一起去思考和研究的问题那我们能看到的就是模型参数越大它能够记住的东西越多这个是可以完全大家都是可以接受的都是也可以证明的有 1000 亿的模型能够记住很细节的知识 70 亿的模型只能记住出现次数非常多的知识然后出现次数少了就记不住了
那这个是可以但是他也仅仅是在这个记忆这个阶段那别的能力呢就所谓的涌现那别的能力上可能并没有看到
所以这个争议就会变得越来越大你能不能推理那是不是什么如果只是记忆其实没有意义你记的再多还是一个压缩型记忆我可能不需要所以如果我有一个外部的知识库那我再有一个 70 亿的模型是不是我就可以干很多事了你千亿模型你的推理能力也上不去你的记忆能力我也不需要
因为你再记你还是有很多错误那我会我为什么一定要你迁移的那这个路径的选择又变得非常关键那大家听完了张奇教授非常重肯的解读后是不是也对斯凯琳·赖有了更深的理解呢
而且对于大模型是否的能力更强上呢最近也有一些新的论文的支持比如说在 Nature 自然打字上发表了一些文章就是叫做更大更易指导的语言模型变得不太可靠其实呢很多研究者通过几种语言模型的研究他们发现了他们在难度一致性和任务回避以及提示的稳定性之间的一些关系
它表明是说人类对于的一些简单任务对于大模型来说已经非常容易了但如果这时候模型按照比例放大那这个时候有可能就在一些可能不太容易出错的区域又发生了一些错误特别是在早期模型中已经能够避免的人们提出的一些问题但是在扩大规模的模型之后那可能又会给出一些明显的这种错误的答案
而且我们观察到通过扩大和塑造干预的这些这种措施的不同其实会导致一些问题的重复发生但是这些问题的在不同难度上又存在一些变异性也就是说它凸显了说通用人工智能的设计和开发在这种只通过这种模型的扩大规模上是难于解决的而且这种可预测的这种错误变得越来越这种出现的频率可能还会增高
所以我们讲 AGI 的结果不只能只是依赖于所谓的这种基础模型以及人类校验而且需要在模型的方式上做一些调整其实最近新出的 GPT-01 其实就是家里的加了这种
推理的 token 其实就是在这种传统的范式上已经做出了调整但是这种方式是不是有效或者是不是能够被通用或者被附用为广泛的扩大规模我们还要多花一些时间去等待
即使是 GPT-01 的推理能力最近大家也没有像大家想的那样神乎其神最近一篇论文叫做大语言模型仍无法制定计划 LRM 可以吗 LRM 这里面指的就是 Large Reasoning Model 就是大型的推理模型
这个体现了 OpenAI 的 O1 在 PlanBitch 上的一些初步的评估它也凸显了说 O1 的性能也并不稳定特别是在一些复杂的问题上它也经常展示出很大的错误和无意义的一些推理和计划另外 O1 也是一个黑盒的模型就外界并不了解它的推理过程在可信度和可靠性方面也容易被人质疑而且它的推理成本使用过高
所以我们可以看到其实 O1 目前它还主要是在这种推理比较顺畅的这种数学领域可能还更加有效一些除了对这些理论或者技术上的警醒以外其实很多的 AI 的警醒者将矛头都指向了目前正在制造 AI 大模型的这些顶级的大公司觉得他们可能是 AI 的罪魁祸首
大家最近说有发现这些 AI 的大公司变得越来越不透明他们在发布模型的时候不会讲任何的技术细节然后弄一些新词来诱导大家例如之前的 SORA 的论文中谈到了世界模型从 GBT-4 到 GBT-4O 到 O1 都没有谈及参数量的大小而且看起来对外的信息也披露的越来越少
但与之形成前列反差的时候他们的融资额就越来越大这在整个科技行业来看并不是一个好的现象
其实背后的原因也很简单是因为这些商业公司要构建最先进的这些大模型的系统那就需要大量的资源比如数据算力以及高端的这种人才这些背后都需要资金的支持而资金背后支持的原因肯定他们希望高额的利润的回报而要获得高额利润的回报就必须建立起高高的这种的技术的壁垒让别人达不到
这个时候你就需要这些大公司尽量的去少透露一些技术细节和一些消息的走漏所以我们可以看到它是一个相辅相成由资本驱动的这样的一个循环迭代的过程而所有能够控制这些资源的公司只能回到这几个少数的公司因为也不可能这个信息散的太广比如说就是像 OpenAI Anthropic 谷歌微软和 Meta 等等的
如果说这些对普通人也就算了但其实比较难的是对于整个政府和监管机构来说它是完全不透明的而且这些公司特别是在美国他们花数百万的美元去游说政府他们就变得太大而不能倒甚至政府也越来越依赖于他们所提供的服务
虽然这些大公司可能在口头上说一直要保持对企业开放监督但事实上当他们面对这种强大的经济利益的时候其实没有人能做到其实这就是 OpenAI 不管是去年的宫斗以及今年的很多人事变动里边可能都体现了类似在这种两种观念之间的一个对抗
而在 AI 的世界里这种大公司和小公司的一些小的创业公司的之间的差距好像是越来越大这个和我们传统的很多技术是有别的在形成绝对的技术壁垒之后那这些公司就可以构建强大影响巨大的这种大模型的系统然后他们用想要的自己想要的方式和时间去发布他们而几乎不用承担任何的责任
那么这些公司的产品就会给其他人使用它的开发和宣传都会变成可能全社会的一种公共的基础设施这个时候国家的这些政府和权力又依附于这种公共的基础设施
我不知道这个刚才这个过程大家是不是已经显得很耳熟了因为在美国的电影里边也经常的出现哈比如说第六日里边那种大公司为了生产科隆人啊并移植这种记忆啊为了利益不惜跨越道德和法律的这种的边界哈
还有类似像生化危机里边那个散公司他为了军事生化研制病毒导致了全球的蔓延类似的作品非常多这个是一个非常体现像美国这种国家的一个这种对大公司的一个叙事的逻辑
在 2017 年美国一位著名的媒体理论家作家和纪录片导演道格拉斯拉什科夫就写过一篇文章这篇文章叫做像谷歌巴士扔石头 throwing rocks at the google bus 里边就讨论了这种数字化给这种这个社会带来的一些问题体现了一种这个民粹主义的愤怒哈
这个书名就象征了这一个增长模对这种增长模式的一个反抗特别提到了旧金山的一些抗议者曾经对科技公司员工的这种班车进行一个破坏就是 Google bus 体现了他们对科技公司的这种不满和不平等的这样一个愤怒拉什科夫认为像这种大的科技公司的发展模式是追求无休止的增长却忽视了这种增长背后给社会和经济结构带来的影响
那也批评了当前的数字经济这种资本主义的模式这种模式强调了通过不断增加投资者回报和公司市值来去推动增长而忽略了普通劳动者和社区的福祉拉什科夫认为这种增长模式实际上削弱了实体经济的健康发展从而增加了社会的不平等并导致了财富的过渡集中在少数的科技巨头中
虽然像谷歌这样的公司可能推动了技术创新但它的经济利益并没有给整个社会的各个阶层带来了一定的经济利益和富裕反而加剧了这种不平等
这些平台虽然为用户提供了便利但它实际上削弱了传统行业的竞争能力使平台的拥有者能够操控市场的一个价格获得巨大的经济利益拉什科夫呼吁去探讨一种替代性的经济模式提出一种叫做去增长 degrowth 的这种模式或者分散化的经济模式建议大家更多的回到这种社区的可持续发展回归人性这种打破平台垄断的这样的一个方式里面
除了他这种观点以外其实还有一些人是站在大公司的人权视角他们从从业者的基础工作者的这样的一个视角发出了声音
例如在非洲有一名名叫莫法特奥金尼的年轻人他 2019 年从大学毕业后就加入了肯尼亚内罗币的一家叫 SAMA 的外报公司开始了他的第一份的工作他为不同的外国的科技公司做很多项目他的主要工作就是完成数据标签或者数据分类等等其他任务
那 OpenAI 其实在 2021 年的 11 月份开始就像肯尼亚的这家外报公司发送过数万个文本的片段也就是让他们做这种数据的分类和这种基础的训练其中很多的文本里边都涉及到互联网最黑暗的一些角落里边提取的其中就包括一些描述类似比如说儿童性虐待谋杀自杀酷刑自残乱伦等等的这样的一个文字处理
那从 2021 年开始他在这种 ChatGPT 的这种内容的处理审核工作中呢给他带来了就是意想不到的这种影响在他整个的六个月的工作里边他主要就是标记这种有毒的内容啊
那为算法来提供帮助来帮助检测 Chad B 而不应该说的内容那大家想到这些不应该说的内容那就是一些这些有毒有害的内容他每天工作八个小时他每天要阅读大约 700 条关于这种有关虐待谋杀残酷的这种内容那这个时候他需要对这些内容进行一个严正程度的一个标记
所以他每天的时间都用于处理这种过滤和有害内容而当时这些标注人的工资大概为每小时 1.32 美元至 2 美元后来 OpenAI 的发言人在一份声明中也证实了说肯尼亚的 SAMA 的员工为其正在构建用于检测有毒内容的工具而做出了贡献
而且这些检测的结果最终被内置到 ChatGPT 中而且声明还表示这项工作是有助于从 ChatGPT 工具中提取这种删除有毒数据的
同样的工作其实在非洲还有大量的技术员工都在做但是和美国的硅谷那些员工相比他们并不知道如何去维护自己的权利所以同样是尼日利亚人的伊普拉辛他四年来每天在工作中观看了数百个的这样的恐怖的事情就抛过什么斩首虐待等等的他大约每小时三美元的价格来评估这些视频是否违反了 Facebook 的一些政策
当时时代周刊还发表了一篇叫做名为 Facebook 非洲血汗工厂的一个内部报道
在离开这家公司之后刚才我们谈到的奥金尼以他的同事共同成立了一个工会组织这个组织叫做内容审核者联盟这是在非洲的一个组织这是一个第一个在保护非洲这种人工智能数据工作者的一个权利的工会非洲的技术工人社区的一个非政府组织帮助非洲的技术工人来争取自身的权利
其实类似奥金尼这样的经营者还很多他们在帮助自己成长的时候自身的权利也受到了损害所以更加强化了像拆 GBT 和其他这种生存式模型他们这种更加依赖于庞大背后的劳动力和供应链来去删除数据以及对这种他们这些工人的一些利益的损害
所以我们可以看到其实大家对大公司如何去创建大模型的这个过程中还是很多人提议了警醒和担忧的刚才我们谈到的都是这些大公司的外部视角接下来我们可以通过几名 Google 的内部员工的一个离职的官司从内部视角看一看就这些大公司是如何作为的
前面大家我们还应该记得我们提到了随机应勿这篇文章当然第一作者是艾米丽本德事实上后面还有其他四位作者这个四位作者是来自于哪里来自于谷歌的 AI 伦理团队他的第二的作者叫做提姆尼特·格布鲁
他是一名 SRBI 的计算机科学家一直从事着人工智能算法偏差以及数据挖掘的工作他之前是 Black in AI 的联合创始人这个组织也在推动 AI 开发和研究中发挥更多的作用同时他也是分布式人工智能研究院的创始人他的主要观点就是希望民众来对这些大公司来保持觉醒
他其实早在 2019 年就和其他的人工智能研究员签署了一封信来呼吁亚马逊停止向执法机构出售其面部识别技术主要是因为那里面的很多技术针对女性和有色人种存在偏见
他也引用了麻省理工研究学院的一篇研究报告这里面体现了说亚马逊的面部识别系统在识别肤色较深的女性方面比任何其他科技公司的面部识别软件都存在困难他在接受纽约时报的采访时进一步表示他认为目前的很多面部识别软件是基于执法和安全的目的那显得太危险了
那格布鲁认为这些大型科技公司的这种右倾的倾向和 20 世纪很多的所谓优生学家是有类似的他们这种项目可能被包装或者描绘成为是有利于造福人类的
而格布鲁的批评的所谓通用人工智能的这种研究呢是直根于优生学的这种基础理论那大家知道优生学这种理论最传统的推行者就是希特勒了而现代这种通过基因工程啊生物技术以及这种面部识别的这种更像一种现代的优生学技术
那我们说如果智力是通过智商就测量就可以衡量的话那么如今的 AI 大模型就是不断的在拼智商测试嘛来淘汰弱者保留测试下来的强者虽然看起来是在淘汰大模型但事实上他也是在打造一些超级人类淘汰人类的弱者所以他认为像超人类主义者就是我们下期节目会谈到的本质上是有这个歧视性的
因为他定义了增强性人类的样子他好像创造了第一波优等生的这样的一个概念所以他并不是不同意 AI 和是不同意 AG 不同意这种更高大的或者是强大的人工智能所以 AI 应该由范围明确定义明确的系统而组成而大家应该把自己的工作焦点从 AGI 的方向转移那格布鲁是 2018 年加入谷歌的
他当时和马格丽特米切尔共同领导了一个在谷歌内部领导了一个人工智能的伦理团队所以当时他们在 2020 年在共同编写那篇文章就是随机应用的危险然后他们当时谷歌里面一共有四个人到了当年的 12 月的时候格布鲁就被公司内部要求撤回论文并删除其中谷歌员工的姓名
当时谷歌 AI 的负责人是 Jeff Dean 他说这篇文章是不符合我们的发表标准的那么要求从中文中删除所有的谷歌员工的名字而且要他就是要格布鲁和谷歌解除雇佣关系
不久之后呢格布鲁就收到了一封电子邮件称谷歌说接受他的辞职立即成效他的解雇呢立刻引发了当时谷歌员工的抗议他们认为这样做呢其实是为了审查这个格布鲁的这个问题就是主要他发表这篇文章且他不同意撤回自己的名字
格布鲁在接受连线采访的时候他也谈到了说他自己被公司调查了而且他提出说公司并没有跟他说这篇文章中到底存在哪些问题而只是让他撤回
所以呢后来呢这样的话有 1500 多名谷歌员工联名签署了一封抗议信他们在请愿书中写到说我们为以下签名者声援格布鲁博士他在为谷歌的这种研究科学家和道德人工智能团队联合负责人的职位受到了前所未有的调查啊以及说他被解雇啊
他们选择了说和格布鲁博士站在一起并且呼吁谷歌研究院加强对研究的诚信的承诺并明确致力于遵守谷歌 AI 原则中所有做出的承诺的研究那请愿者要求 Jeff Dean 和其他的一些参与者能够重新和这些道德 AI 团队的人会面以解释说这篇论文到底有哪些存在一些问题
但后来谷歌没有对这些评论做一个回馈
而且当他的离职的这种情况受到副委员报道之后谷歌公司的执行官就是批查然后在 Twitter 上进行了公开道歉但他也没有澄清说格布鲁是被解雇还是被辞职的后来格布鲁在 Twitter 上也写到他说他对公司不再抱有任何的希望并且指出这些变化是由于称他被解雇的请求所致但没有人对他的解雇负责
随后类似的事情又同样发生在了谷歌伦理团队工作的马格尼特米切尔身上因为他在被谷歌解雇之后米切尔就使用脚本搜索了他的公司账户并下载了剧情记录了涉及到格布鲁的这种歧视事件的电子邮件谷歌公司立即做出了回应系统也自动锁定了
这个米切尔的账户为了回应媒体的关注谷歌称他是窃取了数千个文件并与多个外部账户共享在经过五周的调查之后米切尔也被解雇了那至此之后呢这个谷歌的 AI 伦理团队基本就算是解散了那米切尔后来加入了 Hugging Face 成为 Hugging Face 的首席 AI 科学伦理家
所以呢他现在的观点是更多认为大圆模型加剧了社会的不平等对于整个大公司来说呢就是容易存在这种风险以及他们这些公司容易产生的负面信息他们容易隐藏那无论是商用的 AI 还是开源的 AI 坏人都容易可能做出坏事了所以呢需要对 AI 的整个的系统进行一定的这个权力的遏制以及 AI 的这个危害
也许他们都是大公司的受害者也许确实因为大公司确实做了一些不道德事情被他们掌握了证据总之这些 AI 的警醒者提醒我们时刻要注意这些现在科技这种巨头这种大公司的一举一动到此我们基本就聊完了以上三类的 AI 反对派第一类就是 AI 的末日论者第二类就是 AI 的怀疑论者第三类就是这些 AI 的警醒者
那节目最后呢我们也不得不着不几句啊大家应该听出来其实我们提到的这三类人群其实对 AI 产业都是非常关心的啊那很多人基本都属于是从业者那只是他们各自的观点不同理念不同方向不同以及动机不同其实我们提到的这三类人群
其中有类似像杨立坤呢艾米利本德这样对大模型或 transformer 架构持有怀疑论的专家呢也是非常值得尊敬的那本来因为科学路径就是多样化的那今天呢这个大语言模型或者是通用人工智能呢还远远没有到分出胜负的时刻所以我们应该更珍惜这样在业界不同的声音和学术理念而对于警惕炒作和对大公司保持警惕的这些警醒者来说呢
对于他们的反对者眼里来看他们更像是一种左翼的民粹主义的一种体现
其实 2010 年代以后呢各种政治民粹和科技民粹呢就特别繁荣啊民粹主义倾向于通过简单的口号和极简化的观点来处理复杂的社会和政治问题那这种做法呢好像又忽略了问题的多层次性和复杂性民粹主义呢通常通过这种人民对抗精英的这种框架方式来简单的形成这种二元对立的这种体系啊
但实际上经济不平等然后科技发展不均衡这样的问题涉及到更复杂的因素所以不管是科技发展还是科技民粹好像是在天平的两端在摆动其实大家应该在这两种方式中找到一个二者的平衡所以这是对警惕者的一些回补的一些观点而对于我们第一个谈到的末日论者其实这部分大部分的动机我们可以分析是来自于恐惧
其实早在 17 世纪哲学家托马斯霍普斯就认为说恐惧是人类行为的最主要的一个动机因素
包括贪婪好色什么权利饥渴包括爱等等这些因素都次于恐惧从生物学的角度来看就是人们对于恐惧的反应胜过于对任何其他的这种因素的反应所以很早这些政治家就知道这一点比如亚历斯多德曾经说过你如果你想煽动群众你就应该换取他们的恐惧感
例如在战争的时候媒体就会宣传或者夸大敌人的威胁这是这种沉迷于恐惧的倾向引发了我们前面谈到的末日论的这种叙事当我们面对未知的事物时候又当我们没有获得真正答案的时候人类的思维就会倾向于跟我们谈到的霍普斯的这种恐惧
当古代人类凝视一片无法穿透的黑暗森林时他们就会想象出里面有可怕的怪物所以当现代的人类同样凝视漆黑的未来的时候他们也会想象着说这头 AI 是一头巨大的怪物所以对于末日论者来说他们需要对抗的是人性而如果我们积极的看待在历史上有一部电影影响了许多科幻爱好者和爱好科学的青少年
也激发了他们对人工智能的研究的热情这部电影就是 2001 太空漫游记呃这是一部 1968 年的电影因为电影里面谈到了有一个叫做哈尔 9000 的超级电脑它控制着发现者一号的太空船的所有系统并且与太空船内的所有宇航员可以有效的互动而且哈尔还拥有呃语音交流语音识别面部识别自然语言处理等等的一个功能啊
包括诺兰电影里面星际穿越里面这个 TAS 的机器人以及郭凡电影流浪地球中这个 MOS 的机器其实是类似的那估计很多人都是受到了 2001 太空漫游记这部电影的影响然后所从事了计算机领域的工作以及人工智能的领域所以今天在片尾给大家带来的就是这部电影的开场曲
这部开场曲也是理查德·施特劳斯辉煌大器的《查拉·图斯特拉如是说》好今天的节目就到这里如果你对我们的节目内容感兴趣也希望您能评论订阅和转发好我们下次再见