一切未来终将成为过去
各位好,欢迎收听第六期的提前怀旧,我是任宁我是 Rail 今天我们要聊一个还是跟 AI 相关的话题我们这个在第一期的时候,对节目的拍了的时候是讲的是 AI 这期我们要重提这个事情当然提这个事情的一个起因或者契机吧是因为这个前段时间爆出的一个新闻是 Google 因为和这个美国军方合作开发一个军用的项目吧
然后导致了一些内部的和外部的讨论内部他们有很多员工表示不愿意把这个技术用于军事用途然后就有些是离职啊什么的对吧包括他的明星科学家李飞飞博士也在这个活动中有参与这个活动中的去作为一些反抗吧然后今天我们就这个话题来聊
对简单来说是那个军用所谓的军用项目叫做 Project Maven 然后它是一个给无人机做图像识别的那么一个项目
然后有江湖盛传是说李飞飞因为谷歌要做这个事情所以就威胁离职啊什么的但反正官方的这个说法是说没这回事啊但是之前他们内部的一些沟通邮件被泄露出来了然后被纽约时报报道李飞飞是建议他没有明确指示说你们如果干这个事情我就要辞职但是他就也在这个邮件当中建议回避 AI 这个词
因为因为他说这个 AI 武器可能是这个 AI 技术当中最敏感的一个话题就不要把民生做坏对因为李飞飞一直都是那种坚持什么以人为本的 AI 啊然后什么这个要向善的 AI 啊因为 AI 伴随着 AI 可以说是佛系可以这么说吧因为因为伴随着这个 AI 一直有一种有一种恐惧吧就觉得说啊
AI 会不会就从这个稍微好一点的说 AI 会不会抢走人们的工作对吧然后这个糟糕一点的想象或者悲观一点的说 AI 以后会不会控制人类等等 AI 会不会把我们都干掉是类似这样的这个科幻的想象已经有很多很多了
然后这个 Google 就在应该是 6 月 7 号的时候发了一篇博客文章叫做 AI at Google Our Principles 就讲他们的这个 AI 研发的一些这个叫什么来的原则吧对然后这整个事件的背景就是像刚才所说的事情的后续是说谷歌退出了 Project Maven 的开发并且还发了这七条原则
应该是这个迫于这个内外的一些压力吧然后他也是也有可能是之前他也没有认真的去思考过这个事情就我们在第一期节目里面说的就我觉得他之所以会那样的一个姿态来
公开的来演示 Duplex 我觉得应该也是这个其实我觉得有点欠考虑的他现在推出了这个原则我觉得这个原则他不仅仅是用于研发虽然他主要是跟研发相关的但是我觉得应该也是作为谷歌以后对外 PR 的这么一个形象的基础没错没错就是过去只考虑过技术的问题没有考虑过这个道德和这个政治的问题现在要考虑这个问题了
对然后我们今天的节目也就是围绕着这七条原则我们来逐条看一下看它到底是一个什么样的出发点然后它的表述怎么说然后我们就怎么理解这件事情是第一条叫做 Socially Beneficial 对社会有益的
然后他说就是这个意思就是说这个是这个我们做这个技术的时候一定要考虑他的综合考虑他的这个社会的和经济的一些属性对吧会产生什么样的影响这个我觉得好像从字面上来看争议不是特别大对这七条其实争议的话我觉得都是应该基本上是不会有争议的不一定后面还是有一些问题我觉得
是吗嗯呃这个我倒没看出来但我觉得大多数的如果不是全部的话大多数都是属于那种叫什么呢呃你可以管他叫正确的废话哈哈哈对
那这条这个 social beneficial 我觉得最大的一个我觉得它其实是在表明一种慎重的态度了因为你光说你做一件事情要就还有我们以前说的你要做一个对社会有用的人那这句话本身它并不构成任何的指导性的意见我觉得
所以是一个废话但是我觉得这里面有一个核心的点因为对社会有用的人我觉得没有任何的争议对吧但是最关键的是说有用是谁由谁来定义的这个会比较重要
对我觉得这个主题这个观点就是谁来定义它里面很多这个原则都是跟类似这种表述都是相当于说比较积极和正面的对吧就是说这个积极和正面怎么定义就是说这个它不就叫 social norm 这个 norm 肯定也是说是由一个社会时期的一些具体的一些思想行为的一些规范所构成的对吧
但这些规范肯定也是在随着这个社会的不断的演化它是在变化的所以这里面我觉得就是就是这几条比较 weak 的地方就是在于它并没有指明说它不是一个绝对的准则就好像道德也没有一个绝对准则一样它肯定是跟社会同步的去演进的对而且就算不考虑时间这个因素哪怕同一件事情
比方说一个厂子然后它由于引入了机器人所以导致一些工人失业了但是呢它导致这个厂的生产效率提升了那这个时候它到底是这个对吧是不是 beneficial 这件事情那就其实就决定其实这个屁股决定脑袋的事情了
对啊所以就这里面考虑的点我觉得可能是要更多从这个社会学或者是政治学的角度去考虑因为很多这个所谓的这个好与不好它并不是一个绝对和主观的和客观的一个事情它肯定要考虑多方面的一个因素像刚才你举的这个例子一样对吧
那我们当年这个 90 年代下岗改革潮的时候对吧那肯定就是说是有一部分人的利益受到损害有一部分人的这个从整个社会来讲可能有一部分人是得到了这个提升对吧那综合来看是个怎么样的一个结果呢那最终间这些决定导致的这些不公平产生的这个社会后果又怎么来解决对吧这里面他其实并没有
并没有去提及这一点还是说就是很含混的笼统的概括过去说了一些冠冕堂皇的一些正面的话对吧对而且这个 social beneficial 我觉得它很大程度上是说给别人听的什么意思呢就是因为像 google 这样的公司它的所谓的这个 stakeholders 会非常多对吧这个叫翻译是什么持份者对立相关方会非常多那么
一个场景是说这个东西可以输给甲方艇比方说如果我是一个厂长然后我知道用了这个机器人之后会造成这个购物人失业对吧这是我从这个情感的方面会觉得有一些愧疚但是另一方面呢我这个理性的这个层面又觉得说如果有这个技术几年之内可以为我省多少钱等等等等
那么在这个时候这件事情是做还是不做对吧然后谷歌小说说你看我这个东西都是基于 social beneficial 的原则做出来的对吧你不要太过于难过我这东西是对吧大局来看是好的大家反应听说那也行吧至少我们的态度是我们重要点是好的对吧对
就这里面其实跟那个硅谷现在预计的问题或多或少的有一些相关的地方对吧你说这么多这些科技公司在硅谷扎堆你说对它当地是产生了好的还是坏的影响总体来说还是好的影响偏多对吧但是
具体来看确实有那些就是底层的人民由于这些公司去产生的这些高收入的阶层的出现被排挤出去了对吧那确实有这个问题所谓的这个 gentrification 没错所以就说你说这个东西这个 social beneficial 到底怎么去做对吧其实我觉得他们自己并没有在那个层面解决这个问题那么挪到这个 AI 这个层面我也一样不认为他们就有所谓的一个解
但怎么说呢这个东西解释没有的就好像是说在这里面 Socially Beneficial 那么是谁的 Society 然后是在这个 Society 里面谁因此而获益这个他都没有给出一个解决方案来但是呢我又觉得说这事还是那种说法就是提了总比不提好
对吧至少说有这么一个大方向因为它是 principle 它也不是 guideline 说特别细的说你在某个场景下面你应该怎么样不该怎么样我觉得哪就是不要说在现阶段谷歌它从商业的层面来说没法做这个事情而且我觉得从技术层面来说它也没法做这个事情因为现在 AI 要能够落地要能够真正的跟社会去发生实质性的关系其实还
还没有到最成熟的时候我前段时间看了一篇报道是说但它是指中国了现在 90%的 AI 企业都还没有盈利所以其实还处在烧钱还处在所谓的博士创业对吧 R&D 还可能就还停留在
怎么说呢比较还没有产品化的一个阶段就连 benefit 自己都做不到更不要说 social benefit 对吧所以就这个先提在这里我觉得以后再往后来看第二条我觉得倒比较有意思这个是一个相对来说比较 technical 比较技术一点的问题他就说 AI 要避免叫做创造或者是强化不公平的偏见
因为他开宗明义一句话我觉得其实这句话是一个客观的论述我觉得是对的他说 AI 技术和 AI 算法和数据集合可以反应强化或者是弱化不公平的偏见 Unfair bias 对吧
那就是说他说他们要考虑的就是说如何去尽可能的去避免或者是去消除这些不公平的这些偏见然后这些可能一些所谓的这些特征在数据基本上体现出身比如说他觉得最简单的像这个种族性别国籍收入还有这个兴趣向等等对吧
这个我觉得其实是一个非常核心的问题因为我们知道这个所谓的 AI 本质上就是统计学对然后统计学就是以这个数据集为基础的那么这个数据集里面体现出了各种趋势或者就是一种特征也好它本来就是
是对这个数据集合的一个客观的一个描述吧从数学数学性质上讲是客观的描述那么说数据数据集实上体现出了这么一种趋势也好这么一种规律也好一种某种模式那它是客观存在的对吧那什么时候我们认为它是一个偏见它是一个 bias
然后我们再要在这个偏见的基础上偏见这个偏见那个 bias 是指的是一个数学的意义上的 bias 我觉得而不是说我们去理解它它这边加了一个叫做 unfair 就是不公平的这么一个偏见这就会加上这个我们叫做人的主观的价值评判里面去了这个就非常有意思了对这个 bias 其实你把它翻译成叫偏见但是就
这个翻译容易虽然是他也对但是在这里容易就变成是好像那种傲慢与偏见的那种那种偏见那其实我觉得在 AI 的语境下面或者说一种倾向性对吧就是你刚才说是因为 AI 的这个他的这个做法是人教给他的对吧那我们是从事去用我们理解这个世界的方式去教他来理解这个世界
那举个例子好了比方说如果你要其实要招一个人对吧那你是这个企业的 HR 然后你要招一个面前是一堆的陌生人你就看过简历
你能够判断这个人到底适不适合这个岗位或者是适不适合你们公司那你是一方面你有简历二方面你可以跟他沟通获得更多的信息对吧然后获得足够的信息以后然后你根据你的一些常识和你根据你和对于这个公司的和这个职位的一些了解然后最后最终做出一个判断
对吧 这个在判断里面其实就总体来说我觉得大概会分成两种一种叫做演绎一种叫归纳我觉得 HR 如果他是个人的话他多半是采取这两种思维方式在运行的如果说现在把 HR 给他替换掉变成是说是有这么一个系统然后系统它进行了一个算法那么你把简历放进去然后他通过什么图像识别不知道什么东西来对你进行视频面试对吧
面试完了以后然后他来做出一个判断说到底录用谁不录用谁那在这个时候这个 AI 首先它会像你刚才说的反射反映出人类 HR 的这个判断因为它这些原则性的东西很可能是人类这个交给他的或者是从那个数据经历里面就是提取出来的吧
对然后最关键的是在于说像你刚才说的这个 AI 是客观的因为它不存在这个至少是现在的 AI 不存在任何主观的这个因素那么就会有一个问题在于说因为一件事情是不是公平是一个挺主观的事对我觉得这里面的核心问题先回过头再说一下那个 BIOS 这个词就刚才说是应该是一个统计学的这个偏差的意思嘛
就在这个语境里面刚才就发生偏见那个是有点问题的他叫这个我们前面统计学里面讲什么无偏统计无偏的什么一个结果对吧就这边这个 bias 到底是什么意思我觉得还要再仔细的去理解一下
这个比如说这个按照这个统计学的那个偏差的一个定义就是说你比如说你抽样抽出来的一个结果你统计了比如说他的一个他就说可能黑人犯罪率是比如说万分之五随便几个例子但实际上他可能是就真实情况是可能是高于万分之五或者是低于万分之五的对吧就是说你统计的这个抽样的结果得到的跟实际的不吻合这就是一个偏差嘛
对吧那就说这里面就是说因为你你采取的这个这个这个统计的这个数据的抽样的问题也好还是你这个收集的数据的这个过程的问题也好会导致这个两个这个这个统计结果和实际结果不一致的时候就是说你要去看你怎么去解决这个问题对吧但他这个这个对这个 fair 和 unfair 的判断其实就是说是你知道有这么一个呃
偏差的存在与否的时候你做出什么样的一个选择就你的 action 是什么样子的对吧就让我想象到了另外一个可能最近在美国吵得比较凶的一个事情就是关于在美国的这边名校里面亚洲学生的录取率的问题就是一个典型的一个我们讲有偏差和公不公平的问题对吧
就是说我们直观的感受来看可能就是说亚洲的家庭可能对教育投入力度比较大对吧所以他可能会考更高的分数这个时候如果说你的录取是我们讲某种意义上的公平的话你是说是左右录取对吧那你可能就选这个分数好的人对吧但是其实这个时候
择优录取在这个语境里面是不是公平的我们不好说因为他可能会觉得我要考虑这个各个种族群的这个客观条件的问题对吧可能就是非裔或者是这个
拉丁裔的这个族群他的教育水平平均是偏低的这个是统计的结果导致这么一个一个客观事实这个时候我人类的价值观的判断是说我为了让这些相对来说弱势的或者是这个这个群体能够得到更平等的这个教育的机会我会增大他们的这个录取率对吧但这个时候你对这个亚裔族群的的这些人权来说是否是是否是 fair 是否是公平呢这种就是价值观的判断了
是还有另外一个例子是就跟你说的这个例子恰恰相反 Michael Lewis 在前两年出过一本书叫 The Undoing Project 我不知道现在中文版出了没有那他里面说到一个例子是林书豪林书豪就是那种读书很好的亚洲小孩他是上哈佛大学的
但是呢因为他是个 NBA 球员嘛然后他去他做的各种各样的视讯无论是从这个力量爆发力其实都是不输黑人不输白人的
但是很多队都不要谈因为没有听说过黄种人可以打篮球打他的那个位置对因为就可能是过往的就像刚才你那个 HR 的经历表明的我是这个球队的教练我招的都是黑人的球员他们的 performance 都不错平均水平来看对吧因为比如说我们我相信如果我们随机的去抽样找 100 个黑人和 100 个这个亚洲人去打篮球他的那个胜利数字肯定还是黑人要好一些对吧
所以这里面怎么办是一个问题对但是话又说回来了就一个东西是不是 unfair 这样我说的它很有可能是它是一个主观的事情是的而且它这当中有一个所谓的诶那个叫什么来着就是说由于你相信它所以它就成真了自我实现的预言对 self prophecy 就是不对 self fulfillment
self-fulfilling prophecy 吧对对对然后比方说以林书豪为例吧其实一个球队要不要选某一个球员除了说他的球技啊身体素质等等这方面之外还有些别的因素比方说现在 NBA 他的球员大多数都是黑人
然后球队里面好多教练助理教练虽然说大多数的老板都是白人就觉得拥有者是白人但是到底下高管以下基本好多都是黑人那么理所当然的球队就会被就在黑人文化
就会在这个球队里面在这个体育界会变成是一种主流文化没错就像说唱也是黑人为主对对对所以林书豪我觉得他在去年他就改变了一个发型他输了那种黑人那种龙沟变脏变吗那种
就是那种艾福森以前这样竖的那种辫子在头上然后还被一个老球员给说了那个球员叫肯尧马丁他就说你现在就好像你是个假黑人你妄图打入我们的文化但是就这种感觉对然后林树豪就说反正就是个辫子这也是体育文化的一部分等等这些事情
所以从这个角度我在看说是不是的确是就算两个人都是比方说身体素质或者球技都差不多的情况下面也许在现状下面那还的确真的是找一个黑人会比较好至少他不会被叫做假黑人融入团队合作可能会好一些对就刚才讲的都是几个美国的例子其实我想结合最近国内的一个最近比较受关注的案例来讨论这件事情就是你之前滴滴有个女乘客又被杀了嘛
然后后来不是滴滴就在严查他的那个就是司机的这个背景审核吗对然后就就查出来说有很多这个滴滴司机他是有这个犯罪记录的对这就是说这个问题是什么呢就是这有一个就是统计学的有一个叫做 hypothesis 有个假有个命题就是是否是有犯罪记录的人他在犯罪的概率更高
这是一个就是可能有个 Q 一个 H 对吧你要去通过统计学的方法去证明或者验证就去否认它对吧但是我想说的是假设这个命题是成立的话
我们要去看它产生的背景是什么比如说我们可以很想见的一个道理就是说如果我们都这个整个社会都不给这个有犯罪记录的这个或者服刑人员这个刑满释放人员足够的这个包容度能够重新成为社会的机会比如说我们不给他参与某一项这个工作的这个岗位的机会比如说这个滴滴司机滴滴他都这个司机他就说不要不要有这个犯罪记录嘛对吧那么如果所有的行业都这么做
那这个人他能赖以为生的手段是不是就变得就是他生存的道路就越少了越窄了嘛会不会迫使他再次走向犯罪对吧就是有因果的关系嘛
所以这里面我觉得可能是 Google 的这一条,所谓 unfair,不公平的偏差的一个结果。有时候我们知道统计结果是这样子的,它甚至都不是一个白眼,它就是无偏差的,结果就是这样的。但是你从社会公平的角度讲,你要不要去 disclose 这件事情,要不要去揭露这件事情,我觉得是需要从价值观的角度去再考虑的。
那我们来说说第三条第三条其实真的叫做 be built and tested for safety 这句话在我看来也是一个正确的废话这种感觉对没有人会造一辆不安全的车对很多时候我觉得怎么说呢就是有一种好像是我感觉就有一种是第一这句话表明一个态度我们很重视安全第二是说我们的产品反正都已经测试过了
对吧我们打造的初心也是要安全然后我们测试也测试过了安全那至少说我们不是这个什么说欠考虑对我们我们不是这个 move fast and break things 隔壁那家很受伤这里面是其实是有一个呃
显示相关的案例的点之前那个 Uber 那个自动驾驶的车撞死那个人的事情其实跟这个有一点相关性吧是但是 Uber 那个车他也是我相信他也是 be built and tested for safety 的就是后来那个调查发现不是说他是系统是叫什么来的系统是探测到那个人了嘛然后他只是系统没有去有任何的 action 没有任何的去操作比如说去刹车什么的对吧
这边会就会发现那你这个整个制造和这个测试的过程这个 procedure 是不是有点问题那就是说这个我们在我觉得这点相对来说是比较好解决的因为我们在这个传统的这个大工业时代已经把这个这个这个事情做好了所以就是 ISO9000 这个标准质量认真体系嘛对吧所以就是说我们有一套这个
在传统工业领域有一套成熟的这个方法论去说你只要照我这个做你完成这个认证那么大概率上你只要 follow 这个一步一步来是出售的概率是比较小的对吧那么这个问题就是说那个是在传统的工业生产制度上面是有这么一套规则的但是在
非常不幸在这个计算机软件或者说这个 AI 其实系统也是一套软件对吧就在计算机软件这里面我觉得我们还远远没有达到说这个所谓的工程质量的这个高度去考虑这个问题就好像我们经常在嘲笑这件事情因为我之前在那个加拿大上学了我读的不是叫做 computer science 计算机科学对吧
与此相对的有一个叫做 Computer Engineering 就是计算机工程这么一个学科一个院系的划分对吧因为它的一个传统的界定就是说这个 Engineering 是要对一些东西是要负责任的他们有个叫做有个铁环铁铁铁纸铁环戒指的一个东西就是这个是一个有一个故事的就是你要在加拿大拿到一个所谓的注册工程师对吧
你是要经过一系列的这个认证考试的然后你你做所有的产品这个这个比如说你是修一个修一个大楼是建筑师你是一个这个结构工程师你是要对这个东西付这个除了这个叫做就法律意义上的责任的比如你修这个建筑结构你说这个东西你说的这个结构是合格稳固的最后这个东西倒了导致了这个人死了你是要背负责任的嘛
所以这里面是工程和科学的一个分野但这个东西好像在中国和美国都是不存在这么一个区别的我想说就这么一个事情就是说在软件这一块我们现在的供应水平和理解还原来没有达到像所谓的这种机械生产这种工业那么高的一个质量认证的一个 QA 的一个水平
当然这个跟软件和它本身一些特性是有关系的因为它的可塑性非常强它的这个复杂度是非常高的它是高过于传统的一种所谓的比如说土木工程也好结构工程也好对吧因为它那些传统的那些很多学科里面它真的是所谓是有机可循而且它的复杂度相当是可以 manage 的但是软件因为它的灵活性实在是太强了嘛
而且比如说我们经常说一个 AI 系统一个所谓的深度学系统它有多少层对吧有多少几百万上千万的这么一些变量需要控制那以我们就是简单的一个复杂度的理解来说你是不可能在百分之百去确认它是完全无故障的嘛
对吧这个时候这个是一个客观存在的技术上的难题那我们的问题就是说如何在这种高度复杂的系统里面去确保它的安全其实是对质量的一种认证对吧 QA 的一个过程这里面我觉得到目前为止还没有工业界就软件这个工程这个角度来讲还没有一个非常好的答案那么同时
同样的话就在传统的软件都没有这么好的一个答案那到更加复杂的这么一个 AI 我们甚至传统那些软件我们至少还理解它的运作原理我们还可以说一步一步去推导它的一个运作机制那到 AI 到深度学习的这些系统里面我们连它怎么 how it works 都其实不是太明白的情况下这个东西变得就几乎是不可能的对吧
所以他在第三点说我们要这个 build and test for safety 我觉得其实是一个美好的一个愿景但是离这个时操我觉得是没有任何指导意义的或者这么说吧就是说他可以以这个原则指导去做事情对吧就是你实际上想着安全但是是不是他这么做了就能确保最后的安全这倒是不知道的就他他没有一个怎么做才能安全的这么一个方案我觉得是这个问题
就我相信肯定大家都是想我就想没有人想造一辆不安全的车对吧除非你想把那个人弄死对吧但正常的说你要将造辆安全车你是说我要怎么怎么做才能确保安全比如说对吧我要每个零部件单独测试它的安全性然后要怎么独立比如说有这个比如说你四个轮子同时坏的概率是很小的对吧我们一些数学的方法就可以去统计这个东西对吧这些都是有迹可循的对吧但是 AI 系统怎么去寻什么去使它能够足够的安全我觉得这个东西是是很
目前来说是没有方法论的所以他现在就是他他现在包括这个这个这一点他的下面的一个展开的描述里面他有说我就是说尽可能的在可控的环境里面去测试去去不断的去测比如说我们测他一万次可能 99%的时候是安全我们测他十万次一百万次一千万次那又怎么样呢对吧因为我们安全肯定他不是一个黑白的问题吗他是一个程度的问题吗
那就是说我希望就是说他们提出了这么一套这个这个理念之后还是要有人把这个东西付出付诸实践落实到具体的步骤上面去怎么去指导实际的生产实际的这个研发才这个东西才不会变成你刚才你说的那种一种空话嘛
在这里关于你刚才说的没有一个人想造一辆不安全的车这个事情我倒还真的想到一个反例我以前在上学上课的时候曾经学到过这个案例是 1971 年的时候福特公司曾经出过一款小车耗油量特别低的就是是为了对抗当时的这个日本车那个车型叫做拼头然后这是一个挺有名的一个案例了就是那个拼头它很小
然后它因为小呢所以在设计上面做了一些妥协它的这个油箱是安装在车的这个后座下面然后离离合器很近所以只要你有这个一旦你撞车了以后你这个油箱就很容易破然后破了以后就容易起火爆炸所以就造成了好多起的这个恶性交通事故这样 OK 就这个是出于这个成本和这个结构的
叫什么来着 compromise 对其实这个车的事故率其实是不高的但是一旦出了这个事故尤其是出了碰撞事故之后它很有可能会起火爆炸而且是在这个车投放之前其实福特公司内部有人提出过说你要在油箱之内装一些防震的一些保护装置
但是如果你装这个装置呢每辆车要增加成本然后福特经过计算以后就是还在算嘛就是如果说赔得起对就是我宁可赔你对吧但这个我赔装这个东西的这个成本我要是高于我要赔人家的这个钱呢
所以我就不装至少在短期之内不装他这么算的然后后来所以法院其实知道了这些事情以后就惩罚性的罚钱对惩罚性的罚钱他就是要打消你这种算计是所以在这里我觉得他的谷歌的 Bibliothecan test for safety 其实或者说翻译成中文叫做在以安全为准绳进行制作和测试对吧
在这个时候其实我觉得他指的应该是就是在做一些选择的时候比方说要加一个东西可以提高安全性然后但是他会增加成本在这个时候你加还是不加在做这个选择的时候他会选择加我觉得他是他想说这个事情但就这个就只能靠他自己道德约束并没有说就刚才说的没有这种就是法律强制或者是就是所谓的这个那叫什么来的头上顶着一个什么剑对吧
你随时可能会有这种雷劈下来那还没有就还没有到立法层面去解决这种问题对然后他在这里面的就这一条的最后一句解释里面他也说他会在封闭场地或者说受限的场地里面去使用 AI 技术
对吧这其实跟这个百度在前段时间刚出的那个阿波龙那个车我觉得差不多的他也是用在一些这个封闭的场地里面吧就测试了对
没有他已经量产了不是就他说这个意思就是说他测试的时候是在那个封闭环境里面测试然后量产之后还要在持续监控他们的这个运行运行嘛他这个对他的那个他说他讲这句话的这个反面意思就是他不会在那个比如像 Uber 那个他等于就是在道路上实测嘛是对吧然后又出了事吧就没有说就是他不是这个 tested for safety 这个方式在在运作吧嗯
但话又说回来了我其实就在美国街上看到过好几次的无人车但那个时候里面是有人的但我不知道到底是那个人在开还是 AI 在开就那个人会随时要 take over 他不是说了吗就跟特斯拉的无人驾驶是一样的所谓的无人驾驶自动驾驶就是就很散人心之前我们聊过这个问题就是
他在他在自己开大部分时候但是他说你必须要我随时可能罢工然后你必须要随时接管过来这很反而性的要求对不对我都要无人驾驶明显我的注意力就不在那里了对吧你还要我随时接管过来怎么可能呢好吧那我们讲一下看他的第四条这个叫做 be accountable to people 这个翻译我觉得是挺值得考虑的这个应该怎么翻呢就是
其实如果要翻译的话我觉得可以翻译成叫做广开沿路博彩种场为什么这么离谱的一个翻译对因为它的所谓的 accountable to people 的意思就是因为我之前还以为是不是怎么说呢以人为本或者这种感觉不是吗它的意思就是说要给人工干预的一条道路对不光是这个技术本身就还有说开发技术的这些人嗯
对吧但你知道就是谷歌说这句话我是完全不信的我也不太信因为这怎么来的谷歌最臭名昭著的一个事情就是它很多系统都是全自动的比如说我们都用这个 Gmail 邮箱对吧
就是所谓的谷歌账号对吧如果说他哪天觉得你这个账号有风险有问题他就直接把你账号禁用掉了这个时候你是没有你是叫做什么来的叫天天不应没有人理你的他没有人工客服的
对吧因为你想他才多少人然后他整个这个服务的人群有多少他连这个客服部门都没有他的客服是为这个广告主服务的他不是为你这个这个这个机庙邮箱用户服务的对吧但如果你是这个他的什么那个什么付费的商业用户可能还有个什么有一个 24 小时客服的热线可以打但如果你是这个免费的这种就是这种就个人用户就是机庙.com 的这么一个
这么一个邮箱的持有者你是真的是没有任何门路找到他们除非你认识他们的一个什么人让他们内部给你找个关系对吧但这个是在历史上有非常非常多的这个就是村民遭住的案例的所以谷歌说这句话我是完全不信的他连说这句话的这个 reputation 都没有
但是另外一个角度来看这句话是说为什么谷歌要说这句话就是因为他出名招注这一点好吧不是吗其实是我觉得是另外一点就是如果假设 AI 能够接管和控制很多这种所谓的 mission critical 这种核心业务的时候对吧你必须要有这么一个呃
人工干预人工的这个判断的就是的一个一个机制就好像说那个其实这项流行的一个叫做已经现在我觉得已经成为一种传说传奇色彩的一个事情了就是冷战的时候不是说有有一个这个美国的还是苏联的这个这个这个一个什么下级军官吧就拯救了整个世界嘛
就是因为把这个系统错误的把这个核弹演习的这个信号当成了真实的核战争的信号发出来对吧如果他真的照那个执行呢那不就触发了这个就是第三次世界大战吗那大家都知道大家都是互相就地球有网玩了嘛对吧所以但是他觉得应该不会吧美国人不会这么疯或者是这个苏联人还不会这么疯吧要玩核打击大家都一起同归于尽不至于对吧所以他觉得这个肯定是出了问题了对吧
所以这里面我觉得这个意思就是说我们一旦让这个 AI 系统接管了很多就刚才讲的 mission critical 的系统之后我们还是要给一个人的一个叫做还是要依赖于人的一个 judgment 但这里面很 tricky 的点就是说你一旦给了这么一个借口之后
这个机构也可能被滥用对吧这里面到底怎么去管因为他说 appropriate human direction and control 的时候他默认的一个假设就是说人总能做出比机器更正确的一个判断和一个决策对吧但这个命题我觉得是不一定成立的我倒觉得他这里不是在说这个事情我的理解是怎么说呢就像我们在第一期节目里面说的其实技术就是一种新的 power
对吧那 power 中文翻译叫权利嘛那然后技术又会产生新的 right 中文翻译叫权利但是是利益的利那么如果你这个 AI 系统不留一个就为什么我刚才说广开沿路就好像说你这个系统没有没有一个新伙伴这样的一个存在你没有一个对外接受信息的这么一个存在那你就是一个闭塞的系统对吧 closed loop system
对啊那你必然会独断专行就算你是出于好的目的所谓的我是为你好但是对方未必能够感受得到并且这个事情最后未必是真的以为他好的这个方向去发展也未必能够得到真正为他好的一个结果
对所以我觉得就独断专行的 AI 肯定会产生独断专行的这个 power 对吧然后就会产生所谓的这个技术专制这 Neo Postman 曾经写过一本书就叫做 Technopoli 他就说一个被一个将技术神化了的一个社会对吧就是这个社会是通过技术来制造权威然后通过技术来制造满足然后最后是从技术那里去拿命令
就是说你是听命于这个照单执行就可以了对啊你在这个时候这个技术本身我觉得倒不是说人一定是对的还是不对的就这个我觉得是另外一个问题对吧就是先讨论那个好和坏先讨论能不能的问题对就是这个这里的问题就在于说是你在 power 面前的 rights 你在权力面前的权力
就到底有没有那个 override 的这个按钮对我觉得这是这里面在讨论的这个关键倒不是说一定是谁对谁错的问题所以这其实是两个层面的问题你看你讲的是更底层的一个问题就是说到底是人本还是 AI 为本对吧 AI 本还是人本对吧这里面是一个很核心的问题当然我们从这个人的这个角度来看肯定说我们觉得要人本为主对吧
就至少你要留这么一个口子不是一个干讲它不是一个全封闭的系统对这个刚好是前阵子也是在这个美国讨论的比较火的一个例子就他发生了一个什么事呢就是说现在不是很多公司所谓的叫做 OA 吗 Office Automation 这种自动化系统吗
包括很多包括 HR 系统也是这样子的他是出现这么一个情况他一个公司被另外一个公司收购了他这个公司雇了一些所谓的劳外派的人员去做一些很核心的业务对吧有一天他做业务的人就发现他被解雇了然后他所有的他就给他的上司包括他上司的上司一直反馈都没有人发现为什么这个人会被解雇了就没有任何理由因为这个人正在做一个很重要的一个 project 对吧
最后会有最后查到的一个结果是说因为他是合同工嘛然后他给他续合作那个人续约的那个人忘了给他续约对吧这个时候就他就被系统照单执行了就整个他就被因为合同到期你就应该被解雇该走了嘛对吧你合同工你又不是正式你又不是正式职工嘛对吧
但是我们如果说没有这种所谓人本的这个这个这个 human direction 的话就是他不能 override 整个系统嘛所以他那些包括他的所谓的中层管理干部那个整个这个叫做这个 convention 上面的人都只能看着这个系统照弹之星把这个人给开掉了
同时影响了整个工程的进度但是对此没有任何办法对吧但是如果说再传达情况就是说可能一个部门经理就说你瞎扯我这个人我有自主的独立的决策的能力对吧
所以基本其实刚才就除了刚才我们讲的那个要不要留这么一个口子的问题以及刚才我说留了这个口子之后到底谁来做这个决策之外我觉得还有一个问题就是说我们在这个系统的设计的时候是不是要更多的考虑刚才就是比如第三点提到这个所谓的 safety 的问题因为 safety 里面有个很重要的原则就是说要有一个 isolation 要隔离对吧不要说有一个系统说下达这个指令之后
就完全是影响到全局的嘛就他能不能够把他的影响力能够控制在一个就是叫做 confined space 里面使得说哪怕是他的一个决策的失误或者判断的这个失误不会导致这种全局性的灾难性的一个结果
对吧我觉得这个可能这三条是这一点就是他在第四个原则里面要涉及到的问题但是非常不幸他并没有展开去讲这个东西就是我们是从我们的理解去给他推演出这么一个展开的一个结果
对然后我觉得像我刚才说的背后也存在着所谓的 AI 民主化的这么一个思潮是对吧他怎么说就像我说的这是一个 power maintain rights 他跟你说的就好像言论自由一样对吧人有权发表言论但跟你说的话对和不对这是另外一个问题对对吧对现在我看他第 5 条叫做
叫做 incorporate privacy design principles 叫做要融入这个隐私的设计原则这个跟我们第一期讲的那个 GDPR 的事情是有直接相关的因为可能过去可能大家还不会把这件事情当的太当成一回事但是自从欧盟委员会把这个 GDPR 这个作为法律条款成文化之后那这个就是是一个不得不考虑的问题了对吧
那么作为 Google 他要去服务至少他要服务欧洲市场对吧他还是必须要考虑一个隐私的问题他到底能不能符合我们的这些一些隐私到底能不能够真的如我们第一期讨论的说让用户能够控制自己的数据能够知道自己的数据怎么被利用的这东西他是必须要选的我觉得到这条的真一行道我觉得他没有那么大我到这条让我感受到是
谷歌又在想做规则制定者了怎么说谷歌刚起来的时候他是用互联网就所谓去隔传统行业的命对吧他线下有这么一块然后他说你们到我这来我跟你提供效率更高的连接方式然后就很大程度上对传统行业造成了冲击是吧然后接下来现在大家都在线上了
在之前那些什么搜索的这个算法应该是怎么样对吧什么样的东西排名在前面这也是他制定的规则
然后在现在在互联网上面他又我打算是我觉得他打算是用 AI 相当于是之前的互联网然后他用 AI 来革现在互联网企业的这些名就以前的算法是这个 PageRanking 排名的这个算法现在是 AI 的算法是反正我都是用算法干掉你们其他人
有意思第六条又比较扯淡了它叫做 Uphold High Standards of Scientific Excellence 这个叫什么来的叫坚守科学科学发展观吧可以这么理解吗这个翻译对吧这个不太好翻刚才他讲的意思就是说
就是因为我们讲这个科学的一些方法论就是要要这个 ExcellenceExcellence 这个中文用的不多是吧这个词对应中文哪个词比较好一点因为我想了想去对应中文语境里面好像就科学发展观是比较合适的不对不对那是一个政治词汇 Scientific Excellence 这个他讲的就是说我们要坚持这个科学的一些高标准研研要求对吧这个我们大家是可以理解的这个东西
但问题就是说我们还是跟刚才那个问题一样就是我知道这个是一个好的一个口号对但是我更想知道就是这个是一个你怎么去去执行或者是落实这个号的这个就是他
怎么变成一个 guidance 的问题是这个其实就跟尼尔普斯曼在那个 Teknopoli 的文书里提到的就是在所谓的后期缺时代我们缺的不是信息而是意义就是把你丢一堆原则出来然后对吧相当于丢一堆信息出来但是怎么样去做怎么样去解读这些事情这个所谓的意义我觉得它没有构建起来
所以我们两个在这边帮他怎么做这个事情也很累非常的因为他是很大很空的一些口号对吧我们还是要看到说他提这些口号的时候他背后所反映出来到底什么样的一个思想他的出发点是什么对吧我们想去解读这件事情
比如他提到一个就是说我们要这个按照这个中国的一个说法就是要科学的严谨对吧还要多学科这个联合这个共同的一个研究的一个方式对吧因为我们经常会发现就是说对同一个这个怎么说来的对同一个研究结果可能从不同学科的这个理解他可能会得到完全不同的一个结论对吧
就是他怎么能够去综合这种我们在人类这种科学的各个领域的这么一个知识能够得到一个更加全面更加立体的这么一个结果我觉得他是想讲这件事情而不是说就某一从单一学科和单一维度去判断讲这个所谓的好也不好的问题对吧刚才我们之前他之前前面提到几个准则里面比如说是要安全要 safe 要公平对吧但这些你怎么去评价它可能是维度是比较多元的
所以这点可能有一点那个意思我的理解是这样而且看到现在第七条这个还没说但第七条其实是个总结性的东西看到现在就我有一种感觉是谷歌做的这些事情的确就是在一个 Technopoli 的一个环境之下或者说一个思维之下做出的当然这个美国照这个 Neo Postman 的说法其实早就已经在这个 Technopoli 的统治之下了中国应该是更有胜者吧
是就我们连我觉得很明显的对比就至少谷歌他贴在七条准则的时候他至少还已经说内部已经就思考过这个问题了就是同时期的对比我觉得在 AI 这个大国之二的这个中国里面我觉得我们连这个思考现在都还没有开始去提上那个意识日程对因为他整个这个那当然了他的这个原则也是基于 AI 的对吧这是给 AI 提的但是在
在我这里我能够感受到有一种就是他在探寻的是所谓的这个 technological progress 而不是 human progress 而这种的就这种替换或者这个重心的偏移恰恰就是 technopoly 想讲的一个东西因为他的那个 technopoly 那本书的副标题叫做 the surrender of culture to technology
文化向这个技术投降了对是吧他在这里面说的当然都是你说创造啊这个这个去构建啊测试啊对吧去设计等等对还是技术理念的词汇嘛
或者是从技术领域的视角去看这个事件没错当然你也可以说屁股一顶顶脑袋他作为一家科技公司从技术的角度去说而且谈论的又是像 AI 这样的一个技术问题但是如果我的意思是如果你要我的意思是这个看似成立但其实是不成立的因为
你最终这东西要 deploy 到现实社会当中去对吧然后如果你单纯如果你在实验室里面你可以这么说但是现在我们都知道对吧无人驾驶已经到 L4 了百度已经往那个车了所以它已经不再是一个真空环境下的球形机了
那在这个情况下面我觉得你单纯的好像看似是就事论事我们技术无罪我们按照用技术来讨论技术但是我觉得这其实是一种某种程度上的不负责任或者说是一种天真吧在我看来反正这个都说了嘛屁股决定脑袋他不可能去否定自己吧
对所以就是他第七条这其实写出来让我有那么一点点哑然失笑的第七条叫做就是我要遵守以上所有规定首先是为什么会有这样一条他单独成为这一条是第七条就其实我们回过头来看这七条并没有任何就是逻辑顺序可言是就是感觉想到哪写到哪的感觉
写这七条也非常的不容易而且就是最关键的在于说他到第七条为止他也没有说出一个制约机制来就是他前面六条全部都是他靠他的道德或者自我约束我自己约束自己对就是说我对外宣称我会做到这个事情对吧但是我们都知道你靠自我约束光靠道德你没有一个外在的一个约束机制那肯定是执行不了的因为人物完人因为人性
对吧所以其实你从另外一个角度来看其实你要求他提供一些这个约束自我其实估计也不现实我觉得这个约束自我还是要来自于就是他以外没关系就好像福特之前举了那个福特的例子他的约束是来自于这个司法对吧司法决定说如果你这么干了我以后会对你这种惩罚性的罚款那以后就不会不敢再犯这些你不可能你不可能要求福特自己出一个什么条款的约束自己对吧
所以我觉得就是在这个还是一个这个 scope 这个一个范围的问题对我觉得也是因为如果拿美国为例的话就是这样的这个假设出事情这样的这个判例还不够大家对他的这个思考就真正的说坐下来痛定思痛来想这些事情还不够所以就从另一层面反映出这个 AI 也是早期是虽然说这个概念说了很久很久很久了但是他依然现在从社会的层面上来说还是很早期的一个事情
现在有我们想回过头来想一下有因为 AI 导致的一种比较大的这种恶性的后果的事情发生吗好像还没有什么特别的案例就比如说刚才你说那种福特那种案例目前至少还没有发生但怎么说呢之前也有一种说法说 Facebook
很大程度上影响了美国总统大选你觉得这个算不算是一个重大事件这个肯定是有关系的但我想说的就是他那个还不够成说一个叫做
首先因为他那个因果关系我们知道这个大概率上可能是有这个关系但是并没有办法去证明这件事情对吧不像那个福特那个我们说他是一个 incident 的一个例子就是说我们能够建立他两者之间直接的一个因果的关系所以才可以以此对他来说进行一个惩罚对吧是就我现在还我觉得现在还没有
出现由于 AI 的一些比如说某一个比如 Google 自己他假设他违反了他自己给自己定的这七条原则然后出了一个什么东西导致了比如说很多人死了或者一种大规模的这种恶性的事件发生对吧那我们来回头的追踪说你是因为这个原因我们要罚你叫做以敬效尤杀鸡进猴嘛
对吧我觉得还没有到那个程度但是跟你我们讲之前也提到过这 AI 现在还是应用的一个早期包括很多 AI 企业还没有真的是赚到钱还没有说真正意义上所谓的叫做 Socially
impactful 吧至少是这种程度的介入比如说就好像为什么这个我们今天讨论这个引出这个讨论的背景事件那个美国军方这个 project maven 这个项目就如果他真的做了比如说我有一个 AI 控制的无人机 bar 去把一个平民空给炸了对吧那这个事情就可以去就可能是一个这个开端了但就这里面非常我觉得有一点悲观的一个想法就是说这种事情肯定会发生的
因为人类没有吃到这些恶果之前他都是不会长记性的嗯
对吧
总是因为立法司法总是滞后的一定要这个恶果发生之后才会产生相应的应对措施而我觉得我们还没有看到他的恶果那未来会怎么样其实还是挺担忧的是而且还有一个问题就是退一步讲假设谷歌就是他内部非常这个所谓叫什么华为铁军对吧狼性他就是一声令下所有人都百分之百服从
就算这些人愿意遵守这些规则但是我们知道现在人对于 AI 的了解已经慢慢开始你对一些机器学习的一些结果你也不知道它怎么出来的你都是地道者都很惊讶对啊那 AlphaGo 它为什么下这步不下那步你也不知道没法解读了已经
所以我就想可能有点抬杠的感觉如果就算人愿意遵守这些规则你也不能确保说 AI 在以后也打引号的愿意去遵守这些规则没错你没法去约束一个你完全都不理解不完全理解的一个东西是就很难了对但是我们现在连对人的职业机制也都还没有就更别提 AI 了是
他这个谷歌这篇文章里面他除了前面这七条柜子之外他后面还有一些就是所谓的我们叫做什么来的 do's and don'ts 吧就是什么能做什么不能做这个我觉得也是蛮有意思的这里面他比如他说他有四条是不做的比如他说这个第一条不做的是哪些呢就是可能或者是或者引起或者是非常容易有可能引起这种叫什么来着 harm 就造成恶果的技术他们是不做的
然后第二条紧跟其后就是说他说武器和类似的技术这种专用来伤害别人的技术我们是不做的对吧这两条其实是相关有点反复的意思这里面怎么理解呢我是这么理解就是说他第一条就是说引起或者是可能引起这种伤害我感觉这是一个刀对吧因为刀可以切菜也可以用来砍人对吧
那就他要考虑着你这个刀到底做来是来砍砍人的砍刀还是切西瓜的西瓜刀呢要考虑这个问题就是他要所谓的叫做一个叫做什么来的成本利益的一个权衡吗或者就是这个就是风险和收益的权衡吗如果说他说这个是收益是显著大于这个风险那我们还是可以做的哪怕他是做一个刀对吧
但第二点就是他可能就明确就说武器这种东西就是枪了刚才是刀剑是枪对吧因为枪只能用来杀人对吧不能用来干别的了就是枪我们肯定是不做打猎是伤害别人吧就像我们也我们也不做打猎的枪对吧理论上应该是这样子对但是就是这里面会有一个问题就是也是就回到这个节目开始了这个 project maven 这个事情就如果这个武器是为了保卫自己呢嗯他是 harm 还是 benefit
对但他和他们的目的是 benefit 自己的说你你做还是不做就这里面就好像有点抬杠但是事实上是是这样子的对吧是就好像为什么我们当年这个我们当年也好包括现在的这个朝鲜也好他内景库要带下搞核弹他肯定是搞核弹当前主要就是为了为了汉嘛为了让你不要来搞我嘛对吧那后来我们发现哎他还有一些和平的用途可以用来发电对吧
可以用来看病对吧有的和这个和词这个叫什么来着和词共振啊还有一些什么辐射去探测 X 光这么这些东西这还是有些就是平平化的有意义的用处的时候这个时候你是做还是不做呢对吧然后包括你去权衡这个东西到底是
什么时候是 benefit 好处显著大于风险我觉得也是很模糊的比如说他说给军用无人机开发图像识别软件我觉得完全可以用于和平的用途对吧用于搜救对不对用于救灾对不对它也是可以用于和平用途的所以这里面已经很有时候我觉得那个界限是非常模糊的但我觉得因为在这里怎么说呢在这里它主要的敏感的点在于你的甲方是军方
就跟微软之前吵得沸沸一样的 ice 那个事情对吧他也没有说我真的怎么说实际造成了说多少的 ice 那事情是美国的移民政策对就是说他可能用了微软提供的一些技术无论是我觉得是 AI 还是视觉识别来着就是说导致他们发现了很多移民然后让很多移民跟他们的小孩就分离了
对吧骨肉分离法证明自己的已经非常的有政治气象了但问题就在于说你说第一微软在这里也就是一个怎么说是个供应商对吧他卖你这个货像你卖过去一把刀那你这个刀至于怎么用其实他也管不着对吧就算说你在辅助他在部署但是这毕竟是甲方嘛
是吧你要赚这个钱然后至于说究竟由于这个技术造成了多少的这个骨肉分离其实也很难讲对吧有他没他那可能没有微软就是别人上了那在这里面其实这个到底微软的产品能够起到就对这个骨肉分离起了多大的推动作用其实我觉得也是很难去下判断的但是由于他的这个甲方是 ice 然后 ice 这个事情很大程度上是川普推动的
然后硅谷大家又都不怎么喜欢川普对吧整个 IT 界大家都不怎么喜欢他这还是表明政治立场为主对所以就其实在我看来从头到尾是一个站队站错了的这么一件事情有种有种这个什么就敌人的朋友就是我的敌人这种感觉对吧所以就很难想象是其实取决于你的这个甲方有没有选对倒不是说你刚才说的这个无人就是图像设备被用于去杀人还是救人是啊是啊
我觉得他们 ICE 的事情还是讨论的是比较肤浅的就还没有到因为比如说 President Maven 这个事情我觉得他说正义的点至少还可以就是没有那么明确的一个战队的倾向他只是说这些人他的政策量我是反军事化的对吧我反对 AI 用于军事化用途对吧这个他是一个政治立场他和 ICE 那个战队可能还是有点本质的不一样
但是我倒是有一点点这个向好的一些这个苗头看到了你还是比较乐观对习惯性乐观我在这个之前的一期迟早更新里面提到过这个所谓文化偏执这么一个形象然后我觉得在目前我能够看到一点点的这个抬头
就是关于说我们对于所谓的 human touch 的这个重视程度当然了这个因为文化文化片之他讲的就是说他讲就是一个矫枉过正的这么一个事情嗯就是矫枉必须过正对对对要矫枉必须过正
那么其实现在我们都特别强调什么手工制作特别强的就之前就可能在你看来有点这个 ladaist 这种感觉对吧还要有点反技术但是我觉得你要真的是要矫枉必须要才能过正的有一个现象我觉得很好玩前段时间我在这个看到一篇文章是经济学记刊上面的就 the quarterly journal of economics
他提到一个这个挺有趣的一个现象说在他分析的是美国了他说在这个劳动力市场当中社交能力越来越重要也就是说社交能力对于获取高收入来说越来越重要然后这个所谓的这个社交密集型的这个职业越来越多的被需要然后他的这个待遇越来越好然后所谓的那种就可能跟机器打交道的
那些职位会慢慢的减少就正在慢慢的减少对吧你比方说司机就是跟汽车打交道这汽车也是个机器对吧比方说程序员是吧跟电脑打交道他也是也是个机器等等对吧一个工人操作一个机器设备的也是跟机器打交道也就是这种非社交密集型的
这些职业将慢慢的往下走但是社交密集型的职业无论是需求还是待遇就能慢慢的往上走也就是说跟人打交道的这些 people skill 越来越重要在这么一种思潮下面我觉得也许我们会转向去看至少说去思考怎么样来促进 human progress 而不是单纯的去看
这个 technological progress 或者说把这个技术进步当成是误当成是人类的进步了就技术进步人类是在退步的就是这个人是单个个体这个能力而言啊
但那也未必就是你说的是所谓的这个那种说法这 high tech low life 但这不是一个必然的结果但是要避免这个结果是所以我们应该现在应该去多看一些这个要怎么来的提高你的这个演讲能力的这种项目对吧然后如何这个如何这个有效的去社交比如说 social 对吧对但他也不是他这个
倒也不是说指的是演讲能力了所谓的社交命迹性这个我觉得是一个很这个其实我之前在好像在内核恐慌里面去就聊到过这个问题这个我觉得是一个怎么说来的就是很要命的事情就在中国的文理分科这种教育体制下面你就会发现很多所谓的理科生对吧他就说我叫不善表达对吧演讲能力为零这种其实是一个社会性的很普遍的一个问题我觉得这个是不好的
就是就是就是年软能力也是一种社交能力也是一种 people skill 之一嘛对吧就这个是我们这个这个这个教育体系下面导致的一个一个很严重的一个问题一定是需要得到解决的因为什么老是说这个美国的这个工程师文化会比较强一点比如我们经常看到人家的文档写得好对吧
人家这个演讲做得好为什么呢因为他从小在学校里面就学校教育就很注重训练这些东西啊咱们没有嘛一个是当然可能有一些这个科幻的原因导致这方面是比较弱的但是但是如果中国要就如果如你所言刚才讲那个 people skill 是更加重要的一个技能的话那我们这个技能就是基本上是欠缺的嘛那欠缺就要补嘛
对吧 绞网必须过正就像先送去演讲班嘛石头那个叫什么来的嘴巴里面放三颗石头在裂嘛就那故事我想这个随便扯一句题外话有一个事情我倒是前几天他们跟我说然后我还挺虽然说我之前预料到了但是他这个在正式发生的时候我也不知道该说这个开心还是不开心
我们不是有投了一个做工程机械设计的一家公司吗然后他跟我说有一种工程机械清洗的工程机械叫做平台车好像是这么一种东西如果你要去高处比方说你要去装一个什么东西然后它就像升降机那种东西对就是一个平台然后它可以升上去最高到 10 米我随便说然后你在上面弄完事情了你就再下来
这个东西之前在美国的人均保有量是不是之前这个美国的保有量是 1000 人有一台然后中国呢是 20 万人有一台为什么会有这个差距呢是因为之前中国的劳动力很便宜所以之前这些要到高手去做的事情都是现搭讲手架解决哈哈哈
但是现在由于这个拆就是装和拆脚踝架的这个劳力很贵嘛特别贵所以你还不如去买一台叉车来干这个事情就把车开到那个地方不是叉车那个云平台车就开到那里然后你就升上去办事办下来又快又省钱原来大家是说拿时间在拿钱在换时间嘛
对拿时间再换钱就省钱现在相当于是说那钱省不了了对吧那我就搞一个搞一个这个车这样所以就
我们其实说起好像是什么 AI 抢工作好像是 AI 是一个来势汹汹的这么一个东西然后它像一个什么一种病毒一样席卷了所有人然后导致很多人都倒下了对吧会有这种想象吧那其实很大程度上是由于我们需要它才来的那是对吧是因为这个照目前照之前那个做法做不下去了
然后我们才去找了一个算替代品的在那个东西出来然后这样的这种背后的思路其实我觉得也是某种程度上算是人相对于机器的优势所谓的创造力所谓的去根据某一个问题去设计去寻求一个解 OK 那好我们这期节目就先聊到这里
如果你对我们这个讨论的话题有任何这个想参与的地方或者是跟我们的这个节目有任何反馈可以给我们来信我们的邮箱是 youatpretro.xyzyouatpretro.xyz 那我补充一句是除了来就写信来之外你也可以把你的想法录成语音发给我们对这个我们可以到时候可以在直接里面插播一下
也欢迎你收听任宁主播的另外一档节目叫做迟早更新还有我的另外两档节目叫一个是风投圈和内核恐慌内核恐慌还跟吗跟啊跟我今年跟到四期了我们会把相关的连接放到我们的网站上和本期节目的 show notes 里面欢迎大家查看那我们就下期节目再见拜拜
好