Home
cover of episode 025-AI加速进化,谁能为人类的信任代言?| 对话蚂蚁NextEvo周俊

025-AI加速进化,谁能为人类的信任代言?| 对话蚂蚁NextEvo周俊

2024/4/18
logo of podcast Orpheus微见

Orpheus微见

Chapters

Shownotes Transcript

1983 年 就是有一个事件,它被称为历史上的所谓智能应用第一次翻车,差点就导致全人类毁灭了。

如果不去解决这里面的问题的话,也是很难按照我们预期的 AI 落地的方式去落地 AI, 它其实会重塑人类对信任这样的一个定义跟理解,比如说信任的量化跟标准化,包括整个社会大众今天对 AI 这个技术要走进千家万户的这个过程当中的一些怀疑,我们怀疑的越多,然后我们这些技术人员也好,社会大众去解决这个里面的一些怀疑的过程,才是重塑这个新 AI 时代信任的真正内在的东西。

所以我们相不相信 AI, 其实就是我们相不相信人自己。

听友们大家好,微健之前呢就聊过很多期关于 AI 的节目,今天非常有幸,我们请来了一位在 AI 领域很资深的技术专家周俊老师。

周俊老师也是 2023 年 吴文俊人工智能科技进步一等奖的得主。

那么热烈欢迎周俊老师,请和大家也打一个招呼吧!

诶,听众朋友好,那个,我是周俊阳,一直在蚂蚁集团从事 AI 方面的研发啊,经常非常高兴能有机会跟大家分享我们在 AI 上的一些观点和实践啊,谢谢大家!

嗯,周俊老师也是蚂蚁集团智能引擎技术事业部副总裁,以及蚂蚁集团 AI 创新研发部 next Evo 语言与机器智能负责人。

他的个人和团队研究方向主要集中在机器学习、知识图谱等人工智能技术创新和应用方面,其实也非常难得有一位真正有资深技术背景,以及在研发一线有很多成果的嘉宾做客我们的节目。

所以今天这期节目呢,我们会聊的更务实、落地,尤其是围绕周老师现在团队所重点研发和关注的那个可信智能,我们聊一聊这个可信,也就是信任。

在技术层面、社会层面,以及我们每个人的个人生活层面,人类到底应该与生成式 AI 如何去积累互信?

那从我们节目的角度呢,我也会更多地关注他到底能如何为我们真实的人,为社会去创造更多价值。

那我们就直接进入到正题吧,主要是。

嗯,好的, OK。

那首先呢,我想从一个最近我发现的巨大的认知差异来说起,也就是生成式 AI 在事实上到今天发展到了什么程度,和我们受众每天从那些大众传媒上看到那些变化是不是也有很大的差异。

大概从 2022 年 11 月, 就是 GPT3.5 面世后的这一年多里,由大语言模型驱动的这个生成式 AI 发展速度大家看到都是非常的快,几乎每隔一两周都有一些能够震撼世界的新模型或者新应用问世,已经大大地超越了普通人的理解速度。

那从去年年底那个 open AI 就曝光出了一个他们研究的新的大模型,叫 qstar 模型,据称已经接近了这个 AGI 通用人工智能的水平,它可能将会超越人类智能。

然后再到今年的这个缩拉视频模型,可以生成近乎真实的视频内容,那我们在为这些科技的突破感受到激动过后回归理性呢?

其实也有很多人在思考,这个生成式 AI 的可控性对人类更多的深远影响又有什么?

比如说最典型的代表就是马斯克,其实它也持有一种 AI 威胁论。

那么这些极快的变化,加上普通人能看到的很多自媒体的选择性传播,其实可能会给普通人带来很多错觉和偏见。

那事实上,我们大众也很难弄清楚今天的这个生成式 AI 到底发展到什么地步了。

周老师,您长期研究和开发 AI, 以及为 AI 挖掘各种应用场景,可否从一个内行人的视角来讲一讲,你眼中的 AI 在最近一年里的这个发展究竟有多快?

以及和这个大众们从朋友圈社交媒体里面认知到的自媒体口中动不动又说这个一夜之间又出大事了的那些 AI 有什么不一样的地方?

嗯,事实上, AI 在这些年的发展,尤其是啊,从 15 年 吧,就深度学习起来之后的发展速度其实每天都很快。

嗯,只不过因为下载 GPT 出来之后,也就是所谓的这个深层式人工智能出来之后啊,大众可能能以一种更加感受到的这种方式吧,能感觉到说这个 AI 是一个什么样的东西,所以可能大众对这个深圳市 AI 的这个感知会比以前会更加直接和更加具体一点,所以我们经常能看到说这个大众在传播的时候,或者说大众在看新闻的时候,有很多所谓的一夜之间的一些经历,实际上啊,这些一夜之间的这个经历,是由前面很多人可能积累了很多年的 AI 的技术和 AI 的理论啊,有个厚积薄发的一个过程,然后再加上呢这种甚至是 AI 它能够比较好地贴合人的这个普通人的这个经历吧,所以让大家会觉得说有很多这种一夜之间的这个这个经历对对,但实际上在今天这个日新月异的这个时代呢,我们自己能够感觉到,就是说除了这个深圳市 AI 的发展应用有很多突破以外,对吧?

其实在冰山之下呀,就还是有很多的一些啊一些现象,或者说一些没有解决的一些问题,这些可能是很多的用户啊,未必有那么强的一些感知的,所以我自己感觉总结起来就是这里面呢既啊作为这个普通的用户,作为这个普罗大众,能感觉到 AI 发展速度会相对来说会越来越快,但同时呢,其实它暴露出来的问题或者说潜在的一些风险吧,也会以一个更快的速度暴露给外面。

我自己的感觉就是说,它确确实实是一种非常快的方式在啊融入人们的生活,但是呢,它的硬币的两面性也会逐渐的去啊凸显出来。

然后这里面的话,我自己也是啊,就比较强烈的感觉就是说啊,今天的这个啊,大众包括我们自己本身啊,越来越多的也在用 AI 的这个技术来改变我们的日常的一些场景吧。

对,但同时这里面的风险性,包括一些啊可能的不足吧,也越来越多让公众所感知到。

对。

对,的确可以看得出来,就是大众传媒或者自媒体,他们总喜欢去优先报道那些很颠覆式的东西,或者说很耸人听闻的东西。

但是像你刚才提到,其实从 2015 年 机器学习这个概念,或者说这个技术路线逐步开始走上正轨之后,其实对于你们业内的人来说,呃,你们研究的那些领域,如果扎根进去之后,也能看到很多不同的团队,也有很多这种细分的研发落地的方向。

比如说刚才提到了这个可信智能这个方向其实就回应了全社会目前都非常关注的一个领域,就是公众对于 AI 的一些隐忧和担心。

那我理解的话,目前这个大家特别关注的一个问题就是生成式 AI 以全新的方式,当它生成出来这么多文本、图像甚至是视频,当这些内容不只是用来娱乐和消遣,而是如果说它要在未来真正地应用到某一个具体的行业领域,去变成生产力,去影响我们具体的工作和生活的时候,到底哪些才是可以信任的,哪些是可能是不授信,还需要我们去做更多的技术研发,去弥补这些之前暴露出来一些缺陷,那这个可能就需要科研人员去参与和反馈。

而且我们也可以看到,就是 AI 到底值不值得人类信任的这个话题,其实一直都很受到社会的重点关注和讨论,比如说去年的 2023 年, 剑桥词典公布了一个 2023 年 年度词汇,这就是 hallucinate 啊,幻觉的意思。

嗯,因为 AI 受到训练的语料的局限,或者说算法的一些细微偏差啊,比如说我们在用 GPT 的时候,经常会收到他可能一些答非所问或者明显有事实错误的一些回答。

所以剑桥词典就紧跟这种趋势,给这个幻觉下了一个新的定义,就是 AI 的幻觉呢,是生成虚假或者错误的信息。

那这种事情放到今天也非常常见了。

周老师,印象中有没有一些影响更大的案例?

就当 AI 不是那么可信,然后生成出偏差比较大的结论的时候,到底会给我们个人、产业和社会带来哪些意想不到的影响和问题?

以及如果解决了这样的问题,可以带来哪些突破性的社会价值呢?

嗯,好的,实际上就是案例方面还是比较多啊,印象中比较深刻的是啊,近期发生在美国那边的一个案例,就是自动驾驶领域的,自动驾驶领域的话也是大量采用这种啊深圳市的人工智能,然后非常遗憾的就是对前方的一些事物做出了一些错误的一些判断,对,然后我就引发了比较严重的这种啊,交通事故,那这领域里面,交通事故大家可能可能想得到,肯定是关乎这个人的生命安全的。

在金融领域里面其实也有很多这样的一些一些例子,可能因为一些虚假的一些信息或虚假的一些语料导致啊,甚至是 AI 在这领域里面做一些错误的一些啊嗯些预判,那这样的话其实能带来企业的巨额的这种财产的损失。

因为这两个领域都是跟人的生命财产是非常相关的。

比如说如果在金融领域的话,如果要去做一些投资决策,或者是啊一些跟生命财产相关的一些东西,那如果一旦出现专业性的问题的话,其实对整个社会的这种金融大环境都有比较大的一些影响。

然后幻觉问题的话也会经常的出现,比如说因为受限于这种大语言模型训练的语料的这个时效性,或者是啊,因为它毕竟是一个生成是 AI, 它有这个概率的一个模型对吧,它经常会将一些看起来两个都对的东西拼接到一块,那实际上就会拼出一些错的东西,也就是我们经常说的这种幻觉,或者是一些权威丧失等这一些问题。

嗯,那这样的问题,我们把它统称为啊,叫这个大模型可信或者说可信领域的一个问题,如果不去解决这里面的问题的话,跟我们前面所讲的例子一样,其实类似像自动驾驶啊,或者像金融领域,或者是像这个医疗领域对吧?

如果出现这样的问题,其实很难按照我们预期的 AI 落地的方式去啊,去落地,因为这个领域里面都是跟这个声明财产啊是非常息息相关的,对吧?

这个是一个非常严肃的这样的一个。

那问题的成因的话,其实我们这个主持人情况在前面也提到了,因为这样的生成式 AI, 它是一个本上是一个这种信息的压缩器嘛,嗯,压缩器的时候,它可能以为由于未进去了的这个语料里面存在一定的错误的这样一个信息,导致呢,它输出的时候,其实在某种概率上面呢,它会产生一些错误的一些啊一些东西,这个是它最本质的一个原因。

当然这也是某种意义上是也是硬币的两面啊,就是因为我们享受到了生成式 AI 的这个多样性对吧?

它能它的创造性多样性,就是我们经常会在用类似于这个切代 GBT 的时候,大家会经常为它点赞的地方。

但这个硬币的另外一面就是它会带来这种知识的不可靠,或者说这种幻觉的这个问题,这是它从它设计的原理上面,它会就会存在的一个问题。

如果说今天有一种机制对吧,能把 AI 领域的这种可信的问题能够把它解决掉的话,那么 AI 可能除了今天我们经常有时候开玩笑说的用在这种诗词歌赋领域以外,对吧,还能进入到更多涉及到我们自身利益相关的,涉及到我们这个决策相关的这样的一些场景,那能够更好地帮助啊人类,也好帮助我们这些普罗大众去提高我们的这个生产效率,去释放更多的生产力,对吧?

能帮助整个人类社会迈向一个更好的这样的一个啊一个时代。

所以解决这些问题本身呢,也能带来这种 AI 内在的价值的这样一个释放的这个过程。

否则的话,如果 AI 存在潜在的这些问题,我相信在很多的领域对吧,大家在用它的时候还是会存在非常多的一些担忧的。

对,听到周老师讲的这些,我觉得朋友启发的一个点也属于刚才我们一开始讨论的那个问题,就是 AI 在专业领域和对于公众的那个认知来说,确实中间现在还有一个很大的 gap。

刚才提到,除了创作诗词歌赋啊,画画写东西之外,如果说真的要把 AI 变成一个对全人类真正有用的东西,还是得让它去进入到一些和我们的那些更切身的利益相关的领域,那一旦他需要进入到这些领域,那么可靠性就非常重要了。

是的,对我这边也看到一些很有意思的案例,就是那个 AI 生成内容这方面的幻觉之外,他如果真的走入了我们人类真实的生活之后,如果还不够靠谱的话,到底会出现一些什么离谱的事情?

比如说 2023 年 2 月, 在美国底特律有一位非洲裔的女性被警察给抓错了。

抓错的原因就是因为美国警方使用的那个人脸识别系统里边有一些打引号的偏见,而这种偏见又来自于刚才我们聊到那个他的训练的数据有偏差或者不足,导致那个系统在非周易的人脸识别中错误率很高。

那另外我还查到有一个报告,就是 2023 年 6 月, 有一个网络安全公司叫 Surf Shark 发布了一个 AI 事故报告,里面称就是所有的 AI 事故在过去十年里翻了 15 倍,而且差不多 1/4 的事故都来自于几家我们经常听到的一些美国科技公司的名字。

那我还看过一个更有意思的说法,就是有一个事件,它被称为历史上的所谓智能应用,第一次翻车,差点就导致全人类毁灭了。

很多朋友应该也听说过这个故事,就是 1983 年 苏联的一个自动化侦测系统误报探测到了 5 枚来自美国的核导弹。

那如果当时按照那个苏联的国防程序的话,这种事件呢,它就需要马上上报,然后就要进行一个核反击了,那可能世界就要爆发核大战了。

但是好在呢,苏联方面他的那个监控中心的负责人叫彼得罗夫中校,顶着部门和流程的压力,就是要坚持再观察一段时间,最终在 20 多分钟后,看到了这个 5 枚导弹的信号在系统的屏幕上消失。

最终呢,还是用人的这个判断和责任,顶住了一场因为系统误报而造成的巨大危机。

虽然我觉得就是当年的这种监测系统啊,其实充其量只能算自动化,算不上这个人工智能。

但是我觉得这些技术它各自所处的时代发生的那些变化,以及对人类的思想冲击,应该在各个时代都是类似的。

那这些问题我觉得对于我们来说,实质上就是由于新技术带来的变化和结果,到底哪些是符合人类的社会规则,以及符合我们真实的人的判断和利益的,我想这个问题,它其实已经不只局限于 AI 或者智能化、自动化了,更是人类历史上所有的这些技术,如果要从它的诞生到落地,再到产业化,以及再到和人类共生,直到我们感觉不到这种技术是以一种客体的形式存在,为我们创造价值的。

就像打个比方,所谓的可控和聚变,我们都知道这个发电效率相当高啊,但如果说真的研发落地,最关键的那个环节就是在于可控这两个词,但是这个可控又是非常难的。

所以我想这个可信度、信任度其实也是任何新技术发展应用过程中最重要的一道门槛。

而且像你刚才提到的两个例子,那一个是金融领域,一个是自动驾驶,都是离我们的生命财产安全非常重要的一些领域,就是越重要、越能带来一些革命性变化的技术,它其实可信的这个门槛就会更高。

换言之,当我们想要务实地讨论 AI 技术如果不只是用来写诗词歌赋,用来画画,它到底能在哪些产业落地,创造真正价值的时候,急需被优化的问题就是可信度。

也想请卓老师接着聊聊,是不是现在有很多 AI 公司都是在重点关注可信智能这个领域呢?

或者说他们是不是在一些类似的呃领域,只是说做的呃事情稍微有一些区别,说法有一些不一样?

对的,目前这个 AI 可信,或者说可信智能嘛,这个大的话题,或甚甚至有更多的一些同义词啊,大家可能啊,无论是这个国外的公司,国内的公司,科技圈其实对这个方面的关注度一直来说是非常非常的高。

对可信智能呢,应该是说是现在很多 AI 公司首要关注的这个重点领域,但各家的说法,研究方向都存在有些不同吧,比如说举个例子,像这个 open i 对吧,从 open i 分裂出去的这个 Unsopic 这两家公司,其实他们对这个啊,同样一个一个 topic, 他们的这个看法其实也是存在着一些差异化的。

然后之所以大家都去关注这个领域的话,除了前面主持人讲的,就是因为这里面蕴含着很大的这个机会跟这个当然也会有一定的风险啊,正是因为大家觉得就是这里面的这个风险,我们只要能处理得当对吧,然后在可信可控的这个基础上面去解决掉这里面的一些问题,还是能够给这个产业和社会能带来的这个机会啊,是远远大于这中间的这个啊风险的啊。

所以各家包括这 AI 公司,包括社会的这个啊各界吧,对这个领域里面其实都还是投了很大的一部分精力和心血去啊,功课这领域里面的一些啊一些问题的。

那以我们自身为例啊,或者说以我所在的这个行业里面为,因为我们日常也接触很多金融行业的例子,其实这个金融行业或者说跟钱相关的东西对吧,这个信任是被写进 DNA 里面对吧?

因为任何一个地方,只要涉及到这个钱,或者涉及到生命产卵相关的,我想这个信任肯定是第一位的,是要被这个 DNA 里面是要被继承下去的。

所以就是金融行业本身呢,它是需要高度信依赖这个这个信任的。

所以呢,对于我们公司而言,就是或者说我们这群人而言,我们所追求的 AI, 天然我们就希望它能带来极大的这种可信任的这样的一个特征,这也是跟我们所在的这个行业是这个息息相关的。

所以具体到我们自己本身而言,就是以这个金融行业往外推啊,我相信还有很多很多的行业领域里面,如果能把可信的这个做得更好,能把前面所讲到的这个深市人工智能里面的一些风险能够给他克服掉,让他们带来的这个机会我相信也是巨大的。

然后这样的一个东西也能够更好的跟人类本身啊,能够共存,对吧?

能够产生这个 1 + 1,远远大于 2,甚至大于 10 的这样的一个效果啊。

对,我甚至认为整个金融行业,人类所有的金融体系,其实都是建立在信用这两个字的基础之上的。

所以我也相信你们团队做的这个 AI 研发,应该是天然具有很高的可信的特征,甚至可以覆盖到其他的各行各业,各种生活场景里边。

那周老师可否有介绍一些你们所做一些研发方向,尤其是比平时我们经常在朋友圈里面看那些 AI 不一样的智能应用,或者说 AI 应用。

嗯,好的。

这个主持人一介绍,就引起了我强烈的兴趣,因为这个课题本身呢,也是啊,我们自己啊,就这群技术同学,说实话也是内在的一些啊,一些追求吧,因为大家也都知道对吧,这个啊,在自身去做一个 AI 研究,和这个朋友圈里面看这个 AI 的这些公众的一些文章,其实差异化还是比较大的。

所以要把前面所讲的这种可信任,或者说信任这个东西,要把它拆成这个技术目标呢,其实我们也花了很长一段时间去想,就是到底有什么样方法能够把这样一个东西能够拆成一个可量化的、可实施的这样的一个技术目标。

具体而言,我们列了一些,拆出了一些啊,比如说像这个安全对吧,然后公平啊,可解释,然后像透明,隐私保护等等这些呢,其实都是这个我们非常非常关心的这样的一个核心的这样的一个啊一个目标。

然后之所以去关注这个场景,其实啊跟前面讲的一样,因为我们所在的这个行业呢,这个信任是写到我们的这个 DNA 里面的。

所以我们是一直致力于啊,通过我们接群人的这样一个努力嘛,能够使得这个可信智能这种大的目标呢,能够真真正正的去服务好更多的产业,能够协助携手更多的业务伙伴嘛,一起把这个问题去啊,给他解决掉,真真正正的这样这种深层次 AI, 或者是说这个可信的智能啊,能够迈入到这个啊千家万户,因为我们始终相信可信技术是这个 AI 领域里面最基础的这样的一个做 fundamental 的东西,那越是底下的这个柱子对吧,我们应该投更多的力量把它夯实的啊,更好,跟我们日常使用的这些工具一样,既牢固又可靠,又能这个透明化,让所有的过程又能可追踪,那可以想象大家使用起它的时候,跟人类使用其他的工具嗯会一模一样的,可能会使得会特别的这个得心应手,能产生更大的效率上的一些啊,一些一些裂变啊,这也是可能。

我们这几年啊,就是一直持续不断的在这个领域里面投入,所以也能拿到业界比如说像这个吴文军奖啊这样的奖项的一个很重要的原因,这也是业界对我们在这个领域里面投入的一个啊,一个正面的一个认可吧,也是可能鼓励我们在这个领域里面有更多的一个投入,能够通过我们这些微博的力量,能够带动整个这个 AI 这个圈子领域里面,能够我有更多的这人和更多的资源往这方面去投入,那能够加速把这前面所讲的这些啊可信 AI 或者可信智能领域里面的一些风险给它克服掉,那更快地把里面的机会给它释放出来。

嗯,周老师,你刚才提到有过了一个是奖,获奖项目大概是什么?

那个获奖的项目呢,其实啊,正是这个前面所我们一直在所讲的这些技术啊,就是我们在这个金融领域,还有更多的这个实名财产相关的领域里面研发了这样的一个啊积极学习的这样一个平台啊,可以把它理解成是一个工具箱的一个组合啊,里面有各式各样的这个工具啊,有些工具可能是为了解决这个隐私保护啊领域里面的一些问题呢,有些工具呢,可能是为了让这个 AI 的决策过程更加的透明化,那有一些工具呢,可能是为了让这个 AI 的训练效率有更大幅度的一些提升。

那总体而言呢,是通过这些工具啊,组装成一个这样的平台,然后这个平台呢,除了解决 AI 的这些 fundamental 就基础的问题之外啊,我们也把这个平台跟更多的一些应用,跟更多的一些啊公众所关心的这样的一些服务结合了起来,这样呢也能使得我们的用户在用这些场景和服务的时候能有更好的这样的一个一个体验,所以这个是我们把统称为叫这个金融机学习平台,对他这是这么一个啊大概的一个平台啊。

就是他的面向的用户主要还是金融领域的,或者说金融科技的开发者嘛。

呃对的对的,就是他其实是有两大波用户,第一波用户就是你说的这个,就是会面向这领域里面的开发者,因为我们也希望我们构建的这个能力能够让社会上更多的人能够用到,把这样一个能力能够对外面的开发者来进行开放。

那还有一部分其实也是大家日常可能能够感受到,但未必知道这是我们这个平台所做的一些事情,比如说你在使用这个蚂蚁集团或者支付宝上面这个 APP 上面的一些产品的时候,其实我们已经把这个可信的能力通过我们的每个产品对外去进行一些透传了。

比如说举个例子,可能我们在几年之前跟这个商家配合搞一些营销活动的时候,其实我们就已经将这种公平性的这个这个原理啊,或者公平性的这个问题给他设计进去。

希望我们在做一些营销活动的时候,能够更加多地去关注到这些长尾的商家,然后这样的话能够使得大商家小商家一起在我们这个平台里面有更好的这样一个成长,让更多的这些好的服务能够被更多的外面的用户能看到。

对,嗯嗯,可以给更多的人带来一种普遍性的机会,对的。

实际上就是呃,我们只是以这个金融场景作为一个突破口啊,就我们做的这个可信智能的这个技术,它本质上是一个比较基础一点的这种啊 AI 的技术,或者说 AI 的工具。

那我在我们自己内部的话,我们在这种医疗啊,政务啊,民生这些领域里面,其实都是可以大规模的去使用我们这样的一个啊一个工具的。

那当然这个也是因为前面所讲的这几个领域啊,也是公众所比较关心的,因为我们还是希望我们所开发的这个工具也好,或者是这技术也好,能够更多的跟用户所感兴趣的这些场景做更多的这样的一个啊一个结合。

对,是这样一个情况。

越是那些容错度低、重要性高的关键领域,就越需要确保 AI 落地应用的那个可信度。

对,就是我理解的话哈,还有一面,对一些极端异常情况的那种稳健性和抗干扰的能力,也就是 it 里面经常说的那个鲁棒性。

尤其是像比如说医疗领域里边一些 AI 应用,每次使用可能它都是事关人的生命健康,它没有再来一次的机会。

对诶,刚才咱们聊到这个金融机器学习平台,你获得的那个奖,主要是得益于它的一些什么优势或者特点?

对,这个奖它主要是鼓励在人工智能领域里面有比较强的这个技术创新和这个应用落地领域里面的一个一个方面吧。

对它啊,通过这样的一个表彰,其实也是想让鼓励这个全社会更多的在人工智能的啊,可靠的落地和可靠的这种技术创新方面有更多的一些资源上的一个一个投入。

实际上这个奖嗯,在很多年以前啊,就是他拉历任的一些奖里面也有比较有意思一些情况,比如说啊一些嗯大语言模型啊,或者大语言模型的前代的前代,就是大语言模型之前的一些技术啊,其实在这个文君奖里面其实都被表彰过。

其实也能看出来,就这个奖,他在很多意义上是鼓励一些啊先锋的创造,可靠的一些啊,一些一些探索,甚至可能再早一点的一些像人脸啊,语音啊,然后互联网的一些可靠的一些搜索啊等等等等,就是在这个领域里面都曾经被啊表彰过。

对,所以它是一个比较注重啊创新,比较注重这种产业落地,也比较注重一些前沿的技术碰撞的这样的一个奖项吧。

就还蛮有前瞻性的。

我是不是好多年前还没有因为这个 GPT 让大家那么关注大模型的时候,其实国内也有很多团队很早就在研发了?

对的对的,因为这个呃,深圳市 AI 的很多的技术,可能现在叫深圳市 AI 对吧,在在之前我们叫深度学习对吧?

深度学习在之前可能就一些啊积极学习的一些理论,或者是自然语言处理领域里面的一些一些东西,然后这些其实是构成了今天的甚至是 AI 的一些基础吧。

的,比如说像啊一些积极学习的一些一些理论对吧,一些这种数据的处理方法,就今天大家看到了对吧,这个这么大的这个语料或这么大的一些东西丢到一个架构里面,他们能他怎么能学习出来对吧?

他嗯,以什么样的机制能出来,然后再以什么样的评测方法能评测出来,说这个学习出来的东西啊,是靠谱的,不是靠他死记硬背给他背上来的。

诸如此类的这样的一些啊一些一些技术吧,在之前其实都曾经被啊表扬过。

对,就是因为啊,这些比较先锋性的一些东西啊,鼓励了更多人往这方面去做,去探,去探索。

同时呢,他也非常鼓励大家把这样一个技术能够跟真实大家关心的真实场景做结合。

对,所以才有了今天的这个深圳市 AI 的这种大爆发吧,或者说它未生成是 AI 这个大爆发的过程中当中其实是起到了很大作用,起到了很大的一个作用,对的。

嗯,给听友们补充一下信息,就是这个吴文俊奖得名于中国近现代,因为贡献很大的数学家吴文俊先生,他大概是在 70 年代吧,提出了一个算法,在当时对全球范围内的一个自动推理,那么一个能力有很大的推动,所以吴文俊先生也被称为中国人工智能的先驱,他以前在北京大学、加州大学伯克利分校都讲过学。

然后这个奖项是中国人工智能学会设立的,也是在 AI 领域中国最高的一个奖项。

对,其实我还特别好奇,咱们这个团队之前能够开发出那么多比较有前瞻性的技术和产品,就是为什么可以做出这样一些成果呢?

因为我有家人就是搞科研的啊,以前我也在科技公司和科研人员打过交道,那我对研发人的日常其实也一直都很感兴趣。

嗯。

我们这个大的部门呢,其实是专门在我们公司做这个人工智能方面的技术探索与落地的这么一个部门。

嗯,然后研发的方向,基本上大家所关心的这种,甚至是 AI, 比如说像这种大圆模型对吧?

这个大圆模型可能跟外面大家看也很大,比如百亿千亿啊,万亿啊,这些我们都有在研发。

还有大家呃在今年年初看到的这个 Sara, 这些方面的工作,我们在这边都有投很大的一个精力啊,去去做对这个研究方向是这样。

然后除这些啊深圳市 AI 之外呢,我们其实还有一些比较呃有意思的,比如说我们也想把这种深 AI 跟这种场景做结合嘛,所以说我们也会做一些类似于这个数字人这样的一些啊,一些技术,还有各式各样的一些好玩的一些产品啊,那也是想让大家能够更好地利用这些产品去做一些自己感兴趣的这样的一些事。

但还有一部分呢,可能会偏啊, AI 基础的那部分,对,我们还是会投入很多的精力去研究,就 AI 它的一些为什么不可靠对吧?

如果它要更可靠更可信,它要做一些什么样的一些事情啊,这里面我们也投了很多的啊这个的人,对,总体上我们自己呢,就是人数规模其实还是蛮蛮多的,跟业界其他公司一样,都是这个几百人以上的一个规模。

然后我们啊这些年也得益于国内技术大环境,今天的因为也变得越来越好了。

所以啊,像我们从这个 CMU 的,就是啊国外这个 AI 方面排名特别前的一些高校的啊, CMU 然后 STAMFO, STAMF 这些啊,学历活收回来的同学还是非常非常多的。

所以能看出来就是我们集团或者我们公司对我们这里的这种啊支持啊,对于我们研发规模也好,还是说对人才的这种啊重视倾斜力度在整个公司里面也是非常非常高的。

这一个部门我们这边很多的这个程序员,我们自己经常叫叫马萌对吧,我们这边基本上都是比较纯粹的搞技术的同学,比如说我们在去年就二三年的时候,我们拿到了这个啊,国际的一个顶会,是信息检索方面的啊,通俗一点说就是大家在这个搜索引擎里搜东西,这个我们把它叫信息检索领域,拿到信息检索领域的一个最佳论文论文奖,然后这个奖大概呃当然每年都会评选,但依次因为他是从好几千篇这个已经被录用的文章里面选那么几篇啊,所以看出来就是这个竞争还是非常非常的激烈的,因为我们自己本身去年因为也一直忙着在做这个大模型嘛,所以太忙了也没有去领这样的一个啊一个奖是直到这个颁奖的这个主席一直在台上喊我名字,然后我们现场因为也有中国人在嘛,啊有人可能认识我们这边同学告诉我们,我们对才知道这样的一个一个奖项给了颁给了我们对,嗯,这里面可能主要也是就是想告诉分享给大家的,就是说其实我们自己在我们自己的这些场景里面,在在这个中国的这种大的互联网环境领域里面,研发了这样的一个技术,攻克了里面的一些难题,然后这里面技术因为也都是通用的嘛,也受到了全球的这样的一个一个一致性的赞同。

比如说我们在这个大语言模型里面,大家可能经常会啊关心说啊,那么大的这个呃语料对吧,怎么弄到这个大圆模型的?

是把所有的东西都丢进去吗?

不是的,我们其实会设计很多的这种小的方法也好,或者说小的办法,我们会检验说诶,哪一部分东西丢进去会比较有用对吧?

这也是我们经常这个马龙们说的,这个做实验啊,做实验就是干这个,不是大家看到了这个化学物理的这个实验对吧?

哪两个试管在哪?

我们这个做实验就是啊,有个东西我们要看它有没有效对吧?

我们会从数学上面有些指标,看看统计上面怎么样对吧?

嗯,加了这个东西有没有提升,加了那个东西有有没有提升,其实跟那个某种印象,跟化学啊物理的实验也差不太多,对,就是对,会通过一些方法吧,就是做一些验证,形式化的一个验证,验证完之后看哪个地方弄,因为这里面涉及到的东西实在太大,大家可以想象就是进来的这个数据量都是几个 t 或者甚至更大的几个 p 的这样一个量对吧?

要通过方法把它选出来哪一部分是最优的,这其实是一个非常难的这样的一个一个问题。

是的,直接这么讲可能大家没有体感,比如说今天你要从这个 1000 万或 1000 亿里面,书里面你要进行这个数据,把它全排序排出来,这个难度其实跟这个车差不多。

对,所以这是我们其实在去去年花了很多的精力去攻克的这个一个难题嘛,就诸如此类的这样的很多的一些难题,攻克之后啊,有些我们也会写成一些文章,跟更多的这个业界的同仁嘛,进行一些进行分享,那也是因为这样的一个分享的一个精神嘛,所以拿的顶会的这样的一些荣誉。

对诶。

刚才周老师你提到的这个成果是在哪个国家获奖的呀?

啊?

是啊,去年应该是 9 - 10 月 份,一个叫 CIKM 的一个会议,在英国,在英国的啊,应该是伯明翰吧,颁的一个奖啊,那个会的已经开了,呃,应该也有 20 多年了吧,就是一个历史比较悠久的,国际上面也比较出名的一个会。

当然这里面其实也侧面印证的就是我们国家这些年的这个信息技术啊,或者说 AI 技术的,也是随着我们这大环境的发展对吧?

其实也跟前面我们所讲的这种可信智能的这个落地啊机会其实是一样的,这个跟着这个机会一波往前走的。

在啊,20 多年以前对吧?

在我或者说十几年以前我自己啊,刚读书或者刚读这个啊 AI 方面的这个论文的时候,都没没有办法想象说在若干年以后对吧,有一群完全中国人自研的这样一个技术,能得到一群以这个国际老外对国际的以老外为主导的技术研究的顶会里面,也拿到这样的一个最佳论文的这样一个奖项。

对对。

其实最近有很多讨论老在说中国在大元模型里边可能有落后了多少,我觉得客观来说肯定是存在差距的,对对吧?

但是你如果要真的说很多细分领域具体的落地应用,我觉得我们说了很多年的全球化,尤其是科技研发,也是不同国家不同团队,甚至说是有一些国际间的交流去共同完成的。

所以我觉得比较客观地来看待大模型和深城市 AI 这方面的差距的问题呗。

然后其实你刚说那个就是英国那个讲,突然想到英国在 AI 领域里面其实也是很厉害的,就是 AI 不只是美国强,就像人工智能的这些概念,最早应该是英国人提出来的。

英国的可能大家很多人对吧,知道那个 Google 对吧,那很多人可能不知道这个 deep man 的,对对对对, deep man 的,在就最近这十几年吧,就是这种以深度学习为代表的这个 AI 的发展的这个大浪潮里面,他们贡献了很多的这个力量。

对,这里可能我也要补充一下,就是其实嗯,无论是中国人也好,或者说中国的技术,在这十几年领域里面,其实在这个深度学习为代表的这种,甚至是 AI 领域,其实我们还是有非常多原创性的一些贡献的。

比如说啊,像前段时间这个清华,他们也说了,就是 Sara 的很多技术啊, Sara 论文的发表其实是晚于清华大学的一篇论文的,对清华计算机器的一些文章。

对。

为什么大家会觉得差距好像有点大,可能一方面原因也是在产业化方面,美国确实要走得快很多,但是在更上层的,或者说基础研发的层面,其实很多东西大家都是互有往来,可能是一个齐头并进的状态。

嗯,是的。

尤其刚才你说的那个项目,我还想到一些。

最近看到其实很多人在担心,大源模型是一个非常烧能源的技术路线对吧?

他需要的算力是非常非常大的,最后他又会变成一个。

用黄人勋说的话就是说,大模型的尽头是算力,算力的尽头是能源。

但是刚才你提到的那个项目,在考虑怎么在计算和应用层面,可以让相关的运算可以更高效,从而去达到一个更高效率的资源的分配,可以产出更高性价比的一计算的成果。

对的。

实际上就是对于啊 AI 在这个能源领域里面的消耗这个问题,像我们自己小这个小组,包括整个啊我们公司的技术啊,其实很早的时候也一直在把它这一类的问题,我们把它定义为这个绿色,绿色的问题。

对对对对,这里可能多多多讲一句,啊对,我们也比较关注,就是前面说讲的这个能源的问题,对啊,另外一方面,呃,因为这个大模型它要走进千家万户的话,那其中有一环肯定是免不了的,就是我们要进入到这个端设备,手机扫脸的,或者是各式各样的家庭里面的一些东西,那这个模型那么大,怎么塞得进去,对吧?

怎么样能够让他以更低消耗的方式进去,其实也是一个比较比较有讲究或者比较难的一个问题。

对对对,这个也是为什么现在很多 AI 科技大厂都在研发小语言模型,大家天天听到大语言模型,但是可能很少听小语言模型,这个其实已经是大家共识的一个研发的趋势和方向了。

对对,那讲到这里就是呃,小语言模型也好,或者说这个小大模型也好吧,因为他要走进千家万户,所以又会回应到我们前面说下的问题,就是如果有个东西在你家里他不太可靠的话,大家可以想,是是是,所以又回到所以前面所讲的这种越是基础的信任问题,越是基础的可靠问题,越是我们要放到前面去解决的,越是解决的这些问题,那这个东西往千家万户去放的话,大家就不会有这样一个担忧,对吧?

听到刚才这些很真实的一些研发方向和过程,其实我们应该能够感受到多一些确定性了,就是说以前我们听到很多 AI 翻车的那么一些案例,还对它缺少安全感的话,但刚才周老师给我们介绍一些研发,就是可以帮助我们尽量避免掉这些问题。

但是除了 AI 本身翻车的这种层面的问题之外,其实我看到很多现在大众还广泛持有一种更直接的隐忧,担心社会整体过度追求效率,尤其是利用 AI 在进行降本增效的过程中,可能会忽视很多在以前更能体现人文关怀的一些工作和生活方式啊。

尤其是有一些声音在讨论,对于一些弱势群体来说,比如之前我们经常听到的数字移民,就那个遗是遗弃的遗,有人担心说这些新技术可能反而会继续扩大他们和主流世界的差距等等,所以想请教一下周老师,如果说我们实现了可信智能和更靠谱的生成式 AI 之后,是否能够方便更广泛的人去认识、理解以及使用这个 AI 为自己创造价值?

嗯。

我觉得这个是啊,肯定的。

嗯,对,因为通过这种啊更加可信的这种智能或者说生成是 AI 之后,因为它相当于是一个比较大的前面讲的这种啊世界知识的一个压缩器嘛,其实它就是存储了很多的这种世界知识。

如果这样的一个东西它非常可靠对吧?

那其实在很多的地方,比如说教育领域对吧,它能消停很多以前因为地域或者网络等这样的一些物理世界的一些不足,所带来的一些数字鸿沟的问题,其实都能够很快的被削弱掉,对,这个我觉得是能够给大家比如说在教育方面能带来很多的这种更多的一个普及。

如果真的有一个东西的话,天天你带在身上,它里面涵盖了所有的这个世界知识,那可以想象这个无论是交小朋友也好对吧?

对于我们成人去理解更多的自己不知道的这些知识,其实是有非常巨大的一个啊一个价值的。

比如说啊,最近我们也经常会看到说有人用这种大圆模型来加上这个声音的识别合成,去做这个这个这个多语言的一个学习啊,因为以前可能这种方式啊,我们要通过去培训机构对吧,或者是说去甚至要去国外很长一段时间才能够把这个原生的一些语言给他学会,但现在你有咱们有这样这个单元模型之后,再结合一些其他的技术,其实能很快的跟他进行多轮的一些对话。

因为我们可以使得这个单元模型,比如说啊,当成一个家庭教师对吧,呃,或者是说这个老外想到中国来,我让他当中文老师,他可以教这个老外很快地去掌握这个中文。

或者是说如果是医疗领域的话,有一个类似于家庭医生这样的啊,一个一个角色,把我们可能日常的很多的一些小的知识对吧,都集成进去之后,那有一些简单的一些问诊啊,或者是说做一些医生的一些简单的一些助手,这样其实能够大幅度提升医生的一些效率,那一个医生他能够更加好地去专注在一些更高效率的,更高的产值的这一个事情上面,将一些琐碎的活其实丢给这样的一些啊,大模型的这样一个助理啊,对吧?

这样的话其实能够释放出更多的一些人类的一些价值的。

所以这里面我总体上是感受说,如果有这么一个东西是吧,能够将人类社会里面看起来以前的一些啊,比较占精力对吧?

但是又没有那么啊高产值的一部分,能够通过这样的一个技术啊,能够给它普及掉的话,其实我整体上是对啊,人类的这样的一个效率的提升,人类的这个能力的提升,都是有比较大的帮助的。

当然这个前提条件可能是要这个东西是要是可控的,但要是可信赖的对吧?

只有这样一个东西,真正跟人类啊成为朋友,成为伙伴之后,我们才能信任他的能力,才能跟让他来当这样的一个助手吧。

所以这个领域领域除了前面讲的这种啊,这个教育啊医疗,其实像在法律,还有前面啊我们讲到的这个啊政务啊等等等等,其实更多的涉及到这种啊人跟这种数字世界进行互动的地方,我我自己判断是都可以有这么个可信赖的伙伴在那里帮助我们去解决很多实际的一些问题的。

嗯,对,这是我个人的一些看法。

最直观的一个感受应该就是它确实可以带来很多更有公平性的东西,但这种公平性还是要首先建立在可控,以及说可能要有更多的人参与到里面去,站在更广大人类的利益这个立场上去对他进行调教和反馈。

对的,是的是的,这也是今天的大模型为什么需要这个第二阶段对吧?

因为也给我们的这个听众啊,做一个简单的这个解释啊,因为大原模型也好,还有其他的模型,现在基本都是两阶段嘛,前一阶段就是你为什么东西,它消耗什么东西。

第二个阶段是需要广大的人力参与,将我们对这个世界的主张、价值观、规则对吧,交给他。

对,对,其实这个 AI 是否值得我们去拥抱,我想已经不是一个问题了,而是一个已经发生了,我们必须要去做的事情。

但是如果加上信任、安全、可控这些词汇之后,这个问题就会变成一个技术落地以及落地过程中实实在在的一些技术伦理的问题。

或者简言之,前者是一个思想观念的问题,但是后者是一个技术和规则的问题。

对,或者说 AI 开发运营组织和使用者之间的某种契约关系的问题。

所以快进入到这期节目的结尾了,我还是想讨论一个有一些形而上的问题,就是当我们在谈论追求可信职能、可信 AI 的时候,我们到底是在追求对什么的信任?

那我们可以有一个思考线索和思考框架,就是刚好 10 年 前,有一位中国社科院的研究员和博士生导师王俊秀教授在他的一个著作叫社会心态理论里边分析到说关于什么是信任,是那么说的,在心理学层面会侧重关注个体的情境、反应和态度以及个人特质,然后在社会学则侧重研究人际关系的信任,以及信任在社会上呈现出什么样的变化。

在经济学层面则把信任看作是一种理智的计算。

那么如果我们沿着这种不同学科有不同的聚焦方向来接着探讨信任的话,周老师你认为对于人工智能、计算机科学或者说自动化工程学来说,这个信任到底意味着?

嗯?

我自己感觉就是这个信任啊,可能会跟以前有很大的不一样,就是以前我们讲这个啊,信任,其实基本上都是啊,人和人之间的对吧?

一般我们会讲对,我信任某个人,或者是我信任我的家人、朋友、同事等等,其实他一个很大的前提条件是说这个啊是人和人之间的。

但这个 AI 呢,它有一个比较有意思的地方,就是 AI 我们可以把它统称为是个机器类的东西,那今天其实是已经迈入了这种人机共生的一个大的环境。

那 AI 这种工具化东西,它其实会重塑人类对这种信任或者是信用的这样的一个定义跟理解。

为什么呢?

因为今天其实是广泛的已经在进行这个数字化、网络化跟智能化的一个地方,所以能看到几个变化,比如说这个信任的这个量化跟这个标准化,这里展开来讲,比如说 AI 技术,它其实可以比较好的搞这种大数据分析啊,量化模型,对吧?

那以前人跟人之间的信任是怎么来的?

是基本上是依赖于这种人际交往对吧,我跟你面对面的接触,或者是发个发个社交媒体的信息,或者是说口碑来传播啊,口碑来传播。

我们经常说某个人不靠谱对吧?

对,这样一传十,十传百,百转千这种或者是呢,有些是主观的判断对吧?

主观判断,当然我们希望这种主观判断少一点,但是呢,这个免不了,因为人嘛,他天然就是看了一个东西,他有他自己的这种情感上的一些偏好,他就会做出这种主观上的一个一个判断。

但 AI 它不一样,对, AI 呢,它会通过对所谓的这个海量的历史行为数据,社交网络信息,那比如说我们发在这种这个朋友圈的,呃,微博,或者是别的一些地方的,还有这种交易记录,比如说每天大家使用这个支付宝对吧?

或者这些上面产生交易记录来进行所谓的这个学习。

然后呢,提供一个更有预见性的这样的一个信用评估啊,这个其实会跟原来啊那种会非常的这个不一样,因为原来这种对人跟人之间的这种没法量化嘛,其实你或者说你很难有一个量化标准,甚至说可能这个大体上社会上是有像前面这个情况所讲的,这个教授所讲的那种对吧?

有大概有 3 种,两三种这种量化的方法,但其实那种还是一个比较宏观一点的,但今天的 AI 它能具体到更细人对更细粒度的人,我要看这个人大概在我的这个新人体系之下,它是什么样子的,对吧?

基于大数据这种原理啊,它能它能是可以给出来的,这是一个就是它能够更好地去进行这个量化或者叫标准化啊。

第二个呢,它是通过这种算法来建立新的关系之后,其实某种意义上,它是可能能减少对传统这种中介机构的这样一些啊依赖吧。

比如说区块链的技术对吧,跟我们这里结合起来,结合这种智能合约之后,即便没有这种第三方介入对吧?

陌生人跟陌生人之间,其实他也可以进行一些这个交易。

然后 AI 它能够加上区块链对吧?

能做这种身份认证对吧?

啊,能来通过一些房欺诈,因为以前人跟人之间通过一个第三方,其实它是通过这个第三方来防止一些所谓的身份认证,来做一些身份认证,防止一些所谓的这种欺诈,对吧?

那今天有了 AI 之后,可能第三方的或者说传统中业机构可能后续就没有那么重要了,它能在一个虚拟空间领域里面建立更多的这种新型的这种新人网络,这是第二点,我我自己感觉到会比较强的第三点,其实啊也跟其实以前人的一样,因为人呢大脑处理速度虽然特别特别快,但是呢他很多时候还是没有法针对一个情境化或者是动态化的场景来去微调这个信任。

但今天这个 AI 它能对吧?

因为 AI 它基本上我们可以把它理解成一个这个,我们以前老开玩家说 996 对吧,它 007 啊,它现在都不止 99007,它是 7 * 24 小时一直在线的第一个工具对吧?

它能够实时监控各式各样的这个数据,然后使得这个信任的评价不是像原来一样人跟人之间搞一次的判定,它可以动态的在各个环境下面对吧,进行这种模式推演的这样的一个一个过程。

比如说我看你的这个购物习惯对吧,可能最近你的购物习惯不太好,或者说你的还款记录最近不太好,社交互动上面可能最近也比较偏激啊,诸如此类的,他能够比较好地去调整这种信用的这样一个等级吧,对吧?

可能在一些特定情况下面,我可以临时授予啊或撤销一些这种这种信任对吧?

所以这里面他会对,就是前面讲的这种动态化跟情境化会做的相比人个人的这个时代会更加好一些。

对,然后当然所有的这些东西都建立在一个地方,就是如果 AI 的这种信任,或者人机共生的这种信任,他对这个信任的透明度跟这种鲁棒性会要求会更高。

因为如果因为人跟人之间,以前我大概是能说出来说我为什么相信你,为什么不相信你这个嗯,或者是说我在微博上你传播了一个对吧负面的东西,我大概可以说我要对你的这个信任要另眼相看,对吧?

就是人是很容易把这样一个过程给给他解释出来,但是人机共生的这个时代呢?

那个麻烦来了,你怎么去解释这种前面所讲的有了 AI 以后所带来的一些益处对吧?

那这个也还是跟前面一样诶,如果没法解释不鲁棒,那这个东西嗯,可能也很难对吧,很难去落到这个我们前面讲的这个信任构建体系领域里面来,因为这个信任的东西是社会的一个根基嘛,所以你对如果要进入到社会根基,要迈入到千家万户,那势必对 AI 的这种互信啊信任对吧,这个稳定,这个鲁棒这些又会有新的诶要求,而且这个要求肯定会更强,因为人跟人之间可能对吧,我跟情况我们再聊个半小时,我大概就知道他情况,你是个什么样的人,但是嗯这个机器对吧,它是很难通过这样的一个方式来来下这么一个一个定论的,更加不要说所以这比如说像这个物联网,或者我们把时间放得更远一点,10 年、20 年以后对吧?

智能制造,自动驾驶各个东西如果都出来之后,那这个放得更大一点,就是前面讲的人机共生,那机器跟机器之间的信任呢?

以后怎么弄对吧?

这其实对一对也是一个更大的一个话题啊,对,大家可以,嗯,可以畅想一下,如果说以后有很多的机器对吧,它它虽然没有意识对吧,但它有智能,那这些机器跟机器之间的这个信任怎怎么怎么弄呢?

是是基于像现在一样对吧,我们人设的一个协议,他们去进行交互,还是说机器跟机器之间,他们某种意义上通过智能化的水平?

他们自己开发出一个协议?

对,对对,对,但这里面也有很大的潜力对吧?

就是因为我们人人跟人之间要建立信任,我们我们之间可能是要有一些最基本的一些要求,比如说我们要解释对吧,要鲁棒,呃,可能你也要保护我的隐私,那机器跟机器之间,那这个地方需不需要呢?

其实你是一个更大的,我自己感觉说是一个更复杂的,面向未来,可能对 10 年、20 年、30 年面更复杂的这样的一个啊一个问题吧,对。

嗯,对。

听周老师解释了这些之后,我个别有一个感受,就是总的来说,这种信不信其实就像是一种有没有安全感,我甚至觉得就是人还是有一种本能的,就是我们会倾向于更保守和审慎地去对待一些自己未知和陌生的人事物,尤其是这个陌生的新事物还特别强大,就像你刚说的,可能再过 10 年,这个机器和机器之间自己都会打交道了,但那么一个广覆盖、那么强大的一个东西将会出现的时候,我觉得非常自然的人就会出现一种不安全感,然后我们可能会倾向于优先选择去不相信,或者说至少还抱有一些怀疑。

对于那些复杂的我搞不定的东西,这个往下聊就特别有意思,因为我个人还比较喜欢做一些那种文艺作品的解析,就很多作品,比如说小说、电影,其实这些内容它本来也是一种艺术家对社会现象和人类命运的反思和关怀。

我随便讲到两部 AI 相关的影视作品,一个是大家很熟悉的呃骇客帝国,里边设定就是 AI 最终统治了人类。

还有一部大约是 10 年 前的一个英剧,叫真实的人类,讲了一个小家庭,里边买了一个人形 AI 这个机器人的女佣,但是这个 AI 机器人它一步步地跨越了那些生产公司给它设定的各种边界,最后呢,产生了一系列的家庭矛盾,还有生活伦理的问题。

所以从这些很多年前的文艺作品我们就可以看出,其实很多人对这些强大的新技术都抱有一种不安全感,尤其是担心通用人工智能 API 出现之后,是不是总会发生点什么对我们有负面影响和冲击的事情。

那我觉得这种怀疑其实也并非感性的思考,其实它也是符合一种理智的计算的。

刚才我们说到的种种关于这个对 AI 的信任与否,嗯,如果把很多抽象概念再梳理清楚一点的话,我感觉可能包括三个方面嗯,分别有呃、规则、立场和感情。

我觉得第一层可能就是最接近那些应用场景的一些规则方面,其实它是一个 AI 和人之间的那个边界的问题,到底什么该做,什么不该碰。

比如我自己目前有一部分工作其实也是在做大源模型的商业传播。

我们有一位客户是一个德国企业的中国区某部门的负责人,他在前不久就分享到,其实他们企业内部还在持续地研究和测试一个非常基础的问题,就是到底该把员工的哪一部分工作和时间成本交给 AI。

换言之,就是说,哪些该让 AI 做,哪些该留给人做。

那这种我们看起来非常基础,和技术都没什么关系的事情,在他们看来呢,有一种隐忧在里边,就是如果 AI 在某些它不适合做决策的环节里面做了决策,可能会让最终的结果就是失之毫厘,差之千里。

那这是第一个层面的问题,就是边界以及规则带来的边界的约束力。

那第二个层面,我觉得可能是一个立场问题,因为如果说 AI 的立场不完全和人一致的时候,我觉得人类一定是会产生天然的这种不安全感,也就是不信任啊,引起信任缺失。

那我们应该怎么去解决,怎么去建立这种信任啊?

我觉得这个肯定也是有办法的,毕竟人、团体还有各种国家之间也会有立场不一致的问题,但是这个不影响我们去通过一些契约精神去建立互信。

那就像刚才我们说到,可能人和机器之间也会有某一种基于技术的契约的规定。

那最后第三个层面,我觉得就比较感性了,就是可以说是一个情感问题,就是人是生物有感情,然后人类社会里面有很多灰色地带、中间地带,以及一些暧昧的空间,这可能也是人类文明的一种特征,或者说是我们的一种宿命。

但是 AI 以及那个所谓的硅基文明,对于他们来说,他们就不一定是那么理解的。

就像刚才那个周老师提到说,对于 AI 的信任可能是基于海量数据的,它可能就是泾渭分明的,就是丁是丁,某是某的。

那这种特性的不一样,可能就会意味着人会觉得 AI 缺乏某种感性,它的实质来说就是缺乏一种人特有的能力。

那我们应该是怎么去帮助 AI 理解人类的一些感性的东西,建立起这种人类特有的特性和能力?

所以最后简单总结一下,我觉得就是当我们在谈论 AI 的时候,其实并不是局限于说谈论是否相信这个技术,以及这个技术有了所谓的自主意识又会怎么样,而是还是得回到一个契约共识以及一些技术底层的规则的角度。

我们可以相信 AI, 但是最终还是相信,其中是因为有人在这些技术的背后,用一些更细致的技术研发去制定出了详尽的可落地的规则,这些规则能够在系统中作为人类的代言人来稳固我们的立场和利益。

对,确实啊,就是今天的这个 AI 也好,或者说有可能下一个什么工具啊,也会,当他要走入千家万户的时候,其实也会面临跟今天的甚至是 AI 吧一样的一些一些问题。

但我想在今天的这种人机共生的这个时代对吧,我们人也好,或者说技术人员,整个全售会总是有办法对吧,有能力能够让这个新技术能够变得更加的可控,更加的在我们我人类的规则之下吧,能够更好地跟我们这个互信更好地进行一些协同。

对,我想我们总是会有这些办法的。

那在这里我们作为技术人员,我们可能也是用更多的这个实际行动带动这个技术往前走,让这里面的这个机会我们打得更开,然后把里面的风险呢,也尽快地去消除掉,因为只有建立这样的一个正向循环之后呢,我相信有很多问题在人往前走的过程当中啊,自然而然他也就会解决掉了。

那对于这个企业的这个从业者,我更加希望的是说,真正在我们逐步解决这些问题的过程当中,能够让这样一个技术,能够这个服务这个千行百业啊,只有这样才能将内在的一个价值,可信的这样一个东西吧,能够让更多人能感知到,从而也让更多人能够参与进来,因为只有人、机器,还有人定义的一些规则,对吧,能够形成三方的一个互动之后,我想里面有很多的问题逐步都会得到解决的,然后最后得到解决之后呢,我想这个人的能力在里面又得到了进一步的这样一个加强。

对,这是我的一些啊一些看法吧。

对,说到这我就有一个希望,希望刚才提到那些那些科幻电影里面东西,它都永远就只存在于科幻电影里边。

对,然后聊到这些,我就觉得咱们这期节目真的越来越有趣了,已经从技术的前沿聊到了一些人的认知的前沿,也就是说到底什么是信任,刚才我们讲了信任在不同的学科领域,然后周老师说了这个信任在人工智能,在计算机科学里面,它可能是在未来会基于海量数据,以及基于这个去中心化的、动态化的、情境化的等等等等这些。

但是我们接下来探讨一个更有意思的问题,信任这个概念对于人类来说,从古到今以来它到底意味着什么?

因为信任其实是一个非常抽象的概念,它在不同的历史时代,因为不同的社会制度,还有技术环境都有着不同的定义。

那所以说刚才我们聊到新人在今天可能会发生很多不一样的变化,我觉比如说我简单总结了一些历史,来作为一个抛砖引玉啊。

在史前时代,人类社会的早期,最基础的信任可能就是为了保证基本的生存和安全,就是一些有着血缘关系的部落,还有小团体,他们为了共同抵御外部的威胁,或者说分享资源,然后建立了一些紧密的关系。

所以这种信任关系长期都是建立在血缘和人的肉体之上的。

而且这种建立其实是一个很难的事情。

古代人之间,他们想要相互确信,最经常做的事情就是发毒誓,嗯,煞血为盟!

煞血交换致辞。

对,联姻之类的。

那这些手段和现象,本质上呢,其实是某种对人的肉体的控制,然后以确保互信。

但是随着文明的发展,然后信任的范围又扩大到了城邦,国家等等,然后人类有了相对普遍的法律,道德,宗教来强化这些社会结构中的信任机制。

尤其是当有了通用的货币,有了这个资本主义萌芽,还有证券交易所啊等等等等,那人类就建立了一套可以跨越家族,团体,国家的信用体系来保障各个主体他们的利益这样的一套机制和规则。

例如说这个金融市场里面还有包括征信等等,就像我们前面聊到的,整个金融行业其实都是建立在信任二字基础之上的。

所以这个时候我们就可以看到信用和信任逐渐脱离古代的那种对人的肉体控制了。

那包括人们为什么愿意相信黄金,相信黄金有作为一般等价物的价值,其实也是一种人的脑海里对于黄金价值的普遍共识和信任。

所以货币经济的发展以及商业活动激增,就让这个信任机制变得更复杂的同时呢,也成了一种可以影响到我们社会运转方方面面的基本规则。

就像有一位社会学家齐美尔说过,没有人们相互享有的普遍信任,社会本身就会瓦解。

而这种普遍信任在卢梭那的表述,其实就是基于契约和一种契约的网络。

比如这个卢梭的社会契约论里面就写过,人们怎样才能生活在一个秩序的群体中,仍能自由如初?

答案便是社会契约,放弃天然自由,转而获取了契约自由。

那我的理解就是,我们今天这个时代的信任,既有对真实的人的信任,这是对一些原始社会以及古典社会的继承。

但是更多的普遍信任则来源于一个普遍性的社会区别的网络。

呃,每个人、组织等主体能够有一套约束力的空间里面行动。

如果缺乏了这种基于契约的信任,社会运转的摩擦力,以及组织之间沟通和合作的成本就会变得更大。

那关于这个事情,有一个非常具象的有意思的例子。

刚才有提到一个社科院的王俊秀教授,他当时做那些研究还经常讲一个事情,他特别喜欢拿淘宝和支付宝的这个例子来说明针对人际间的信任,以及对组织机构的信任这个事情。

王教授他就认为支付宝和淘宝最大的作用贡献就是建立了一种新的社会信任机制。

你要怎么和一个你没有见过面的陌生人在虚拟的空间里面去交易,这个风险其实是非常高的。

但是支付宝这个平台呢,它建立了一种新的制度,可以让人们相互放心,即使你没见过对方这个人,你不信这个人,但是你也可以相信这个制度,你可以相信这个平台,它就可以促成交易的达成。

这也让我想起了一个我自己很有趣的一个亲生经历,就是我们家有一位长辈很喜欢收藏古董,大概他在 0809 年 的时候,在一个网上的古董收藏论坛里面看到一对品相非常好的一个陶瓷碗的出售,2000 块钱,但是这个东西当时的市场价格应该是远超两千的,所以我这位长辈他没有顶得住各种诱惑和风险,还是想要买下他。

但是因为当时最基本的电商以及电子支付的这个体系都还没有普及,所以双方约定就直接银行打款以后发货。

那我们就劝他很久,说你这个风险非常高,但是他当时已经非常想要那个,已经失去理智了,就还是给对方打了钱啊,然后毫无意外的就是那个对方从此就从网上消失了。

那我想随着这个技术的普及,对于这种线上货款交易的不信任和欺诈,现在应该已经有很多手段可以去规避,因为有了保障,交易平台的规则以及支付系统差不多就跟基础设施一样。

那如果我是一个买家,我能够非常明确地知道我付的钱是有保障的,那如果对方卖我假货,他是可以被追责并且付出应有的代价的。

这种观念他已经深刻地烙入了我们的生活。

也就是说新的技术,它最终它会变成一种普遍的思想观念,它会从技术变为思想来影响我们的生活。

那我们就不需要去时刻提醒自己啊,我要再注意是否会在网上正规的电商平台被骗了。

我们刚才在节目最开始就提到说,当一个新技术已经和人类共生,我们已经感觉不到这种技术是以一种客体的形式存在的时候,它就是在真正的持续发挥价值。

对,嗯,其实那个刚才提到那个王教授,他在当初举支付宝这个例子想要探讨的问题,我觉得就和我们今天遇到的 AI 值不值得信任,可不可以信任的问题的实质其实是一样的。

所以到节目的最后,我们来探讨一个畅想,一个很有意思的问题,就是刚才周老师也提到了,可能在 AI 时代,以及说之于 AI 计算机技术这个领域,信任可能会有一些新的特征,比如说基于海量数据信任的去中心化,以及信任的动态化、情境化等等等等。

那我们畅想一下,在未来人类社会的信任,基于刚才我们已经提到的这些特征来说的话,还会给我们带来什么新的价值?

其实我自己感觉它的内在的内涵其实并没有发生很大的变化,可能几千年以来,其实内在的东西变化并不是那么多,可能就是外面的表现形式变得非常非常的多。

嗯,所以我感觉无论是说这个信任是基于海量数据去中心化,什么动态化、清新化,可能以后还会有更多的一些词,反倒是信任的本质上的那些东西,它没有发生很大的一个变化。

比如说我们今天去看我们自己做技术,我们经常会看说哪一些是所谓的高质量的东西,那个高质量的东西其实就是我们经常说的对吧,信任度更好的几个东西,比如有可能是对吧?

比如我们今天聊的这期的内容对吧?

我们可能会认为是高质量的东西,然后那些 AI 生成的那些东西呢?

我们会认为它是一个非常高质量的东西嘛,就有时候我们也不会对。

所以在这个时代,呃,信任的外在东西虽然发生了很多变化,但人去判断自己哪个东西最应该被信任,或者自己应该透露哪样的一些特点才值得被别人信任,这些其实不会有显著的一个变化的。

让我们这些技术人员,或者说今天的这些 AI 技术,它只不过是以某种方式将这个信任者外在东西可能泛化得更快,传播得更快。

对,所以这个领域里面,我自己觉得就是如果想让它能有更快的一个传播对吧,让这些 AI 的技术,那还是要回到这个工具本身的特性上面来,就是你这个如果你是个工具对吧,那你这个工具本身你能不能做到这个前面讲的可控性很好,这个鲁棒性很好,能不能经得起大家的折腾,大家的质疑,包括整个社会大众今天对诶 AI 这个技术要走进千家万户的这过程当中的一些怀疑,我我自己认为正是因为这些嗯,怀疑锻造了某种意义上新 AI 时代信任的基石,嗯,因为我们怀疑的越多,然后我们这些技术人员也好,社会大众去解决这个里面的一些怀疑的过程,才是重塑这个新 AI 时代这个信任的真正内在的东西。

然后这些东西一旦沉淀下来,又会形成这个人类社会关于新任这个机制的一些新的规则。

我我暂且把这些东西定义成规则好了。

嗯,然后这些规则最后可能又经过若干年的一些简化,又会简化成几条。

前面情况讲的这个叫思想对吧,叫思想。

其实那些东西之后揉吧揉吧之后,就将这个思想的里面的东西可能壮大了之后,其实很多前面讲的这些 AI 外在的一些新人的一些外在形式,其实大家都感知不到的,最后能感知到的可能就是那些思想东西,那这些其实也就是我们这一代一代的技术人所想就奉献到这个技术社会所想从事的这样的一个工作的一个意义吧。

我们也希望就是通过我们这些人努力,能够使得这种你说 AI 更可信,或者 AI 更值得被信任的技术路径对吧?

能够更加清晰地被定义出来,能够将大众的这样的一些疑惑、焦虑,或者说大众的一些问题啊,转化成一些在技术上可实施的一些路径,对吧?

然后群策群里去解决这样的问题,让这样的一些东西变成人类的共识、规则、思想的变得更快,我觉得这是我们这些人能够做。

嗯。

听完周老师说这些,我突然想到一个很有意思的观点,我们相不相信 AI, 其实就是我们相不相信人自己。

嗯!

完全赞同。

说得更具体一点,就是我们相不相信自己有能力驾驭自己发明出来的新的技术?

对,完全赞同。

好!

谢谢周老师,我觉得今天聊得非常开心,感谢周老师的分享,特别是很多来自产业研发一线的经验,以及你们真的是在前沿去想的那些问题,跟我们想的是完全不一样的,所以这些观点对我的启发也是非常大。

总之呢,今天这些讨论看似是在聊智能,在聊 AI, 事实上更多的可能是在聊人,聊人性和信任。

那关于我们是应该更信任 AI 还是更信任人的问题,我觉得科技和人文两者总是相辅相成的那,因为其实科技也是人类社会的一面镜子,他给我们照出了更多的可能性,更多真实的样子。

所以当我们在探索如何让 AI 更值得信任,无论是从技术上还是从观念上,其实就是在探索人类本身是否值得信任,以及我们对我们的未来是否还有信心和信任。

是的啊!

完全赞同我们今天这个思想碰撞上的一些东西啊,对,我觉得在这个人机共生的这个时代吧,我们总是能想到一些方法对吧,让社会更包容,让这个社会更公平,那我们自然而然也有办法让我们创造出来的这些工具,无论今天讲的这个,这个生成式 AI, 还是更多的工具能够被我们所信任对吧,能够让他更加的可信,那从而真真正正地让这些工具能够为我们服务吧,让这些工具能够真正地走进这个千行百业。

嗯,谢谢!

大家好,谢谢!

那我们今天的节目就到此全部结束,感谢您的收听!

欢迎订阅 office 微键和回声场旗下的其他节目,添加修 notes 尾部的微信号 king Cramson 下划线加入我们的听友群,让我们一起留心观察日常生活中的细节,一起建微支柱。

以及,再次感谢周俊老师本次的加入,我们下期见,拜拜!

好!

拜拜!