cover of episode 低音侃侃 E05 | 别拿走我的脸:AI 技术发展如何造成女性新困境

低音侃侃 E05 | 别拿走我的脸:AI 技术发展如何造成女性新困境

2024/10/17
logo of podcast 低音播客

低音播客

People
文静
Topics
文静分析了韩国"N号房2.0"事件的再次爆发,认为其原因在于 Deepfake 技术门槛降低和政策执行不力。她详细阐述了 Deepfake 技术的运作逻辑,以及数据偏见如何导致 AI 算法中存在性别偏见。她指出,Deepfake 技术主要用于制作色情内容,这与技术门槛低和制作成本低有关。全球范围内,针对 Deepfake 色情内容的法规不完善,惩治力度不足,不同国家和地区对 Deepfake 色情影片的法律处理方式不同,这可能与对该行为的定义模糊有关。她认为,判断 Deepfake 色情影片是否为性犯罪,应以受害者是否遭受伤害为标准,并批判了"复仇式色情"一词的用法。她还分析了 AI 平台对 Deepfake 色情内容的处理方式,以及 AI 伦理领域中对算法公平性的讨论,指出其可能忽视了社会偏见本身。最后,她结合亚马逊 AI 招聘系统和微软 AI 聊天机器人的案例,说明了日常生活中的科技产品也存在性别和种族偏见,AI 的偏见会放大和加速社会中的偏见。

Deep Dive

Chapters
本期节目探讨了“N号房2.0”事件,分析了韩国修订《性暴力犯罪法》后,深伪色情事件再次爆发的两个主要原因:技术门槛降低和政策执行不力。技术门槛的降低使得生成深伪色情视频的门槛降低,而政策执行的不到位使得许多参与者并未受到应有的惩罚。
  • 技术门槛降低:生成深伪色情视频的技术门槛降低,导致更多人参与其中。
  • 政策执行不力:韩国对性暴力犯罪法的执行不够严格,导致许多参与者没有受到惩罚。
  • 受害者不满:大量受害女性的不满情绪,导致事件再次爆发。

Shownotes Transcript

请不吝点赞 订阅 转发 打赏支持明镜与点点栏目

本期是丁侃侃推出的反 Deepfake 专栏中的第二集我们请到了前科技记者文静和我们一起聊了聊深维色情影片背后所涉及到的网络性暴力犯罪 AI 与算法的性别偏见以及我们日常生活中的科技与性别等更多的话题

就在上一集当中我们从女权行动从行动者的角度去聊了聊反 deepfake 的全球的声援那这一期我们想要从科技的角度以及从网络性犯罪的角度去

看这个 N 号房以及相关的可能更多对网络性剥削和科技与性别这些角度的事件或者讨论吧我是这一期的主持人滴滴然后我们请这些嘉宾稳静来自己介绍一下自己吧跟大家打个招呼

大家好,我是文静我现在是在欧洲念性别研究的硕士在这之前我大概有六到七年的科技行业的从业的经验然后最后的两年是做科技记者然后在这个期间我可能比较关注的领域也主要就是 AI 然后大数据运计算还有芯片整个这些领域然后

同时也比较关注科技伦理和科技与人文的这样一些话题吧最开始想说聊这一期是起因于就今年八月底的 N 号房的第二波又重新在韩国的社交媒体以及甚至是中国甚至是更大范围的社交媒体上引起了很大的讨论

那我自己关注到这件事情其实是源于在早几年的第一波的韩国的 N 号房的事件在我读到了这个第二波的 N 号房以一个更大范围以一个受害者

可能年龄层要更加的幼龄化给人展现出来事态是一个更严重的第二次 N 号房的事件之后会让我想到在上一波的 N 号房韩国社会去处理这件事情觉得态度是非常严肃的因为第一次 N 号房之后韩国在 21 年就开始了对他们性暴力

犯罪法当中的修订然后其中有非常多网络性剥削网络性暴力的尤其在色情影片上的传播和制造上有很多修补原来没有的漏洞的一些做法我觉得甚至是他会可能我们等一下会介绍到他比可能很多欧美的法系当中要

去填补到的漏洞要更加的仔细那为什么在这样的更加细致的修法之后还是会有第二次这样更严重的 N 号房那你刚刚提到的就是为什么韩国既然有了这个修法之后还会有这一次的新的 deepfake 的这个事件然后我个人觉得主要原因其实有两个一个是技术门槛

变低一个是政策执行的问题那技术门槛的话大家也知道就是 chart GPT 产生之后那这个生成式的 AI 就是可以生成可以生成富有创意的或者说这样子的 AI 难度越来越低越来越可以获得了我看到一个数据是说现在你只需要上传一张清晰的面部图像就可以生成 de-fake 的视频那

我不知道大家有没有记得就是在 2019 年的时候中国有一个就是 de-fake 的软件叫造然后它是默默其他的它可以用来换脸然后它生成的视频其实是就是电影的视频是现有的呃

那他要拍摄这样的视频他要给这样的视频换来他其实是需要拍摄一系列的照片和就是动态的图片动态的小的视频才能让这个效果更加真实但是随着这几年的这个技术上的提升让这个制作的成本和制作和技术的门槛都变得非常低嗯

所以我觉得这个是一个挺重要的原因嘛然后另外一方面其实就是这次韩国的女性她到了中国的平台以及其他国家的平台去发布这个信息也是因为在韩国这个政策的执行

是不够严格的对因为在韩国的这个性暴力犯罪法修订之后就是相对于之前他提到了就是那些拥有购买储存和观看这些非法的色情视频和照片的人也会受到惩罚那也就是说你但凡进入到了这个社群你观看

观看了这些视频你就应该在法律上受到惩罚但事实上这一次我现在看到的数据是只有几十个人被抓捕了但是事实上我看到可能一个 Telegram 的社群他们 Telegram 的社群就有 22 万人所以说在政策的执行上是

不够令人满意的才会造成这么多受害的女性的不满吧嗯你在讲制作成本低的这一点就也让我想起说那为什么 deepfake 会被主要用于

色情的内容就可能在早些年 16 17 年的时候我们还会看到一些比如说跟政治人物相关的一些 dig fake 的影片比如说大选当中我们会看到很多做一些假新闻的这样的东西去用 dig fake 的技术来做但是我会觉得跟你刚刚讲的技术门槛低还有它的制作成本非常低我觉得这是一个很重要的原因就为什么导致了

应用 dig fake 技术越来越多的是实时色情的内容我是有查到说有一个叫 sensitive AI 的人工智能的公司就他们的

公司的数据全球排名前 10 的这样的色情网络中有 8 个网站里面其实都有大量包含有 deepfake 的内容然后这些网站当中专门做 deepfake 的色情片的网站又是占的主要然后以及那些可能不是专门做 deepfake 的这些网站里

deepfake 色情的内容仍然是占这些影片内容的大部分我个人觉得他可能更

大范围或者更深层次反映的是一个可能我觉得在全球的范围内 deepfake 的色情这个方面在各个国家的性暴力犯罪法当中就能够惩治到的点都是力度都是不够的之前说为什么觉得韩国的这个法已经也是做到了比较完善是因为他把制作虚拟影像的人和散播这些影片的人呃

以及说违反当事人的意愿去利用可能社交媒体或者像 telegram 这样的通讯网络去散播以及引力的这些人都会被纳入到这个违法的范围里以及说用这个影片去胁迫其他人

有这样的力图的人也会被放在处罚的范围里但是可能比如说我查到说英国其实它就不会去惩罚制作影片的人它专门会惩罚在没有他人的同意的情况下去传播的人可能荷兰跟澳洲的法系又是相反的注重去惩罚制造

色情影片 deepfake 色情影片的人所以我会觉得好像全球的范围内好像都没有办法非常系统的从 deepfake 的根源从制造到传播再到持有没有办法这样一条龙的去

去追踪到他对我觉得是这样子的就是你刚刚提到的就是 Deepfake 所生成的这个视频是没有办法溯源的这个也是一个比较严重的问题吧但同时也是就是政府在不去执行现有的法规的时候的一个借口

像是韩国他在这次其实就提到说因为 Telegram 不给我的用户信息所以我没有办法去追踪这些传播和制造影片的人但事实上就是即使 Telegram 不给你信息你也有一些办法可以去追溯溯源道所以我觉得它就是一个事实但也是一个借口我觉得还挺有意思就是你说到就是之前我们用 DeFake 也会做一些

政治类的内容但是现在绝大多数是色情的内容我查到的数据是

有 98%的 Deepfake 的视频都是色情视频然后这个还挺超乎我的想象的除了这个技术的可实施性包括更多的普通的男性用户他更可能去生成一些色情的视频之外我觉得也在于就是可能更多的人也没有意识到 Deepfake 所生成的这些视频它带来的危害性

和对女性造成的伤害吧嗯对你说到这个就会让我想到说那到底从法律的角度要怎么样去理解 deepfake 技术做出来的色情影片就要到底要怎么看待它我觉得它很大的一个怎么说争议点或者说去到底要惩治它与否的点我觉得其实是在于说它到底是属于一种性犯罪的呃

范畴还是属于一种色情幻想我有看到我一个潜入到这个 telegram 就有售卖 deepfake 影片的 telegram 群组里的一些讨论然后我就看到其中有一条我绝对不会觉得说我们做这些事情是对的这个做这些事情是指我觉得应该是购买或者是制作 deepfake 影片但没错

但是我们这些人没有办法控制我们自己想看什么压制不住自己的欲望但绝对没有想说要故意伤害本人所以我在想说那其实是不是一个社会偏见一个把不是通过他人直接真实授权的这样的一个但其实也并不是通过他人真实拒绝

直接拒绝的这样的一个素材以这样的素材去做的色情内容它被认为说是一种性幻想基于一种幻想的加工所以因为有这样子的偏见存在所以大家不会说把它这么严厉的去归到

性犯罪日本和欧美和欧盟的一些法系当中他对于去监控 deepfake 的色情片他并不走这种法制化他并不走这种惩治的路线而是着重去推 AI 伦理以期待说技术或者说从算法的角度去避免有这样色情片的存在但同时又会觉得说那他其实是不是也是一种这种社会偏见的

反应呢要不要把这些影片裁定为性犯罪的结果还是色情幻想的结果怎么说我在看这些惩治力度和范围不一样的法律的时候我心里就在想说那是不是因为这个概念上的模糊所以导致了说不同地区不同国家会选择去对会对这样的色情影片做不一样的裁定

我不是特别了解就是欧洲这边的国家他们是怎么样就是定义 deepfake 的视频然后他们具体的政策是什么样但是我觉得我还是挺认同你刚刚说的就是他们如果是用 AI 的伦理来阻止生成 deepfake 的色情的视频那就是因为他们对这件事情危害性的认同是不够高的

然后回到你刚才的问题因为我自己不是学法律所以我其实也不知道要怎么样定义这个到底是性犯罪还是性幻想但我认为如果类比性侵的话或者性骚扰的话我觉得还是要站到受害者的立场上

去看这个事情到底受害者是不是接受或者受害者是不是有受到确实的伤害这个伤害当然不只包括身体上的也包括内心的或者他们是不是可能对受害者产生潜在的伤害比如说如果你用了女性的照片做一个 DF 但是你没有把它传播出去那这个虽然没有造成实质的伤害或者说继承的伤害但是它带来了

潜在的伤害我认为这一些所有的这一些都应该被归为这个网络的性犯罪嗯对我同意我觉得这个第二次的 N 号房它

他就是一种 under criminalized 的体现,不去很严格的把它直接裁定为是一种性暴力,就是因为在社会观念里,可能大家会觉得大家以就男性这种,以女性作为一个幻想对象去做这种性幻想,这种好像就是一种性自由一样,就你可以随便去幻想,所以他,

在法律在可能法治的治法的层面上很会很担心说那我那我会不会很容易就过度惩罚你了再或者说在 criminalize 的这个层面上会很容易就不小心就罚你罚多了但其实就是因为有这样的

社会偏见在所以说才会有第二次 N 号房这种他本来应该受到惩治但其实又没有惩治到的这种结果我看到的数据是现在的 deepfake 的色情内容是其中以女性为主要对象的就是有 99%所以当女权主义者说每一个男性都是潜在的强奸犯的时候其实

就是这样子而且我觉得就像我在早一些时候提到的那个在 telegram 的那句话的时候他们说我也没有过想要去故意伤害本人这句话它其实体现出来了一进一种网络的这种性暴力我觉得它其实是在网络世界的这样的霸权的一个翻版

这个数字文件这个影片或者这个照片它本身它传播在网络它被传播出去的那一刻想要去胁迫想要去威胁想要去甚至去诈骗或者是更多的有更多犯罪可能性的这样的事件的发生它已经提供了一个可能性刚才你提到了复仇是色情这个词你给我发

体纲的时候对这个词非常困惑因为我之前没有看到过这个词所以我去查了一下然后它的官方的定义是指未经个人同意而传播的这个色情的图片或视频然后我就非常困惑说这样这个不就是一个

传播非自愿的视频或者说是性暴力吗为什么要用复仇式色情这个词然后后来他又解释了下面又解释了说因为他这个复仇式色情的视频最开始的时候是用来指你用这些色情的视频或图片来羞辱和威胁受害者然后我觉得这个词还是一个非常男性的造词吧

对因为本身这个行为就是一种犯罪但是你加了复仇这个词之后就似乎让人觉得它有某种正当性所以我就是非常不认同这个词的用法所以我觉得我们还是应该提倡更多的用更直接的网络性暴力网络性虐待网络性剥削这样的词汇来

嗯更加确定他的作为一种犯罪的这个事实嗯嗯嗯对我同意他又让我想到这个韩国修订的这个版本的法律当中呃他有强调说利用影片进行强暴胁迫以及呃

行无义务之事这些都列入了处罚之外我觉得他虽然说提到了这一些看似好像是这个强迫或者复仇的一些法条他其实还是罚不到说购买或者消费深维色情影片的人以及说你作为一个单纯持有影片的人你也没有办法罚到是因为要去证明说虚拟色情影片是你通过购买

就好像觉得

就没事你手机里存一个这样的视频这样的一个男性我们不会轻易把你认成一个当成一个潜在的性犯罪一定要等到说你去做到做出胁迫他人做出有真的有伤害呃

当事人的这样的实际的行动的时候你才会被归结到这样的范畴里回到刚刚讲的说为什么 deepfake 会主要被运用于色情那种那我会很好奇说究竟这个 deepfake 的技术它的运行逻辑是什么样的以至于它会这么容易地把影像影片的内容

轻易的去制造出这样的色情内容所以想说可不可以请文静介绍一下这些 AI 它是怎么运作的这些算法它究竟是怎么形成的那我可以先讲一下 AI 或者只是这个 AI 的系统是怎么样生成的

嗯那对于 AI 来说有三个很重要的元素算法数据和计算力那数据是我们经常听到并且非常重要的大家可能会听到说呃

AI 来自于大数据嗯它的意思其实就是说那比如说我们要呃做一个就是识别这个图片中有没有人脸的这样一个 AI 那我们要做的整个过程就是我们首先要投位给这个系统很多很多带有人脸和不带人脸的图片然后并且告诉这个系统哪些图片是带有人脸的哪些图片是没有的那这一步就是用到了数据然后第二步呢就是说呃

你的编写这个程序的这个程序员去编写一个算法让整个算法符合呃什么样的情况下有人脸什么样的情况下没有人脸这个结果然后呢这个步骤就叫做就是就叫做对这个呃

AI 的训练就是这里就是用到了算法和计算能力也就是芯片对然后有了这个 AI 之后然后我们去使用这个 AI 的过程呢就是我们给这个 AI 一张新的图片让他判断这个是不是有人脸一般的程序里就会对这个新的这个计算结果进行一个验证和调试大概是这个样子

那由于这个 AI 是来自于现有的这些数据那数据本身如果带有偏见的话也就是 which is 就是非常常见的事情那你产生的这个 AI 这个算法就是有偏见的

举例来说如果说你这个图片里本身就是黑人少数族裔或者是女性的数据更少那你生成的 AI 就更容易判断男性的脸和更容易判断白人的脸那这就带来了这个数据的偏见听上去感觉说其实那可能 AI 呈现出来的结果或者是这个算法它运算的结果或者说

更广义的来说这种科技当中它所展现出来的一些带有偏见性的理解它其实它还是跟止于这个社会当中存在的一些对社会偏见的确实有很多的学者是这样子就确实是像这样子去理解然后他们会认为 AI 带来的偏见其实是社会偏见的一个投射

对我来说我觉得当然我认同这个观点但我觉得也不只是这样因为除了就是数据会带来偏见之外其实还有一些其他因素会带加重这个偏见比如说现在绝大多数的程序员都是男性

以及科技企业的管理者也是男性虽然说所谓的程序或者算法是一个看似中立的东西但是不同的程序员你在关注如何去写算法的时候其实也是不一样的比如说男性他可能就不会非常关注色情内容的监控或者说是一些女性感到冒犯的词汇他们可能就不会感到冒犯

不会把他们标标注为就是色情或者骚扰那这会造成他们所写出来的 AI 是有一些差别的也让我想到说呃这一波的 deep fake 的浪潮之后大家重新开始说呃关注我们要怎么样去去识别我们要怎么样去杜绝这样的影片但我大部分能看到的在网上呃

能够查到的比如说在可能 gipup 这样的开源网站分享的大部分其实都是识别这个影片是不是用 deepfake 技术做出来的那除此之外说怎么样走得更远一步最开始 AI 去做去生成这个色情内容好像大家就不会太多去提到从这样的角度去怎么说去预防

我觉得你说的是很有道理的就是因为我也看到了一些就是像是在中文的互联网上也有一位就是中科院的应该是中科院吧一个女性的研究员她把她们团队做的这个反 DFake 的程序开源了包括像你刚刚说的很多其他的反 DFake 的这个程序其实都是检测这个视频是否是

defect 生成的但他没有办法去追帮你溯源呃

你的视频到了哪里以及你怎么样去删除这些视频包括怎么样去减少这些视频对受害者的影响其实都没有关注到这些部分而且这些反 deepfake 的视频它的目的其实监测这个视频是不是 deepfake 生成的视频那它肯定要用到很多 deepfake 现有的生成的视频的这个数据去训练这个它新的这个系统来

让这个新的系统能够识别那在这些视频所使用的过程当中是否也造成了新的伤害然后包括刚才说到的就是已经生成的视频它其实已经造成的伤害是已经造成了并且这些视频也没有办法进行溯源然后还有一个逻辑上的

问题是在于反 Deepfake 的软件它的生成或者存在一定是晚于 Deepfake 的技术的发展的那在这个 gap 里在新的 Deepfake 的技术发展到新的反 Deepfake 的技术能跟上 Deepfake 所生成的视频这个过程当中它这个 gap 中也会有很多的女性受到伤害所以我觉得这些其实都是

一些问题吧所以我觉得现有的这个 DFake 的 FindDFake 工具难说它真的有什么能够帮助到女性的价值我觉得它可能的价值就是说当女性在维权的时候我能够通过这个 FindDFake 的工具告诉我政府或者检察机关说这个是通过 DFake 生成的仅此而已我还去查了一下 AI 平台它如果

如果涉及就是色情或者暴力的话它会有一些什么样的应对的政策那像是 deepfake 呃就是生成的这些平台呃基本上所有的平台都会呃明确的显明它是禁止色情的然后呃包括就是开源的还是闭源的其实都是这样子但是呢那些开源的平台比如说最有名的那一个呃

就是开源的平台它其实就没有办法去监控它只能提示你你不能去生成色情的视频但是它没有办法制定相应的政策去规规范你那些商业的平台那它可以去规范你监测你但是

其实这样做的成本是非常高所以说大多数的平台其实是没有这样做的他只是给了一个举报的这样一个这样一个呃功能吧呃但是事实上呃你生成的视频如果是没有发布在网上的话那其实是很难去做这个举报的呃然后除了这个 d fake 生成的平台相关的平台其实还有呃呃这些视频网站或者是色情的平台呃

就是可能有用户他生成了这个视频之后他会把这些视频上传到这样一些平台那他其实就包括一些就是本身不是 Prom 的不是色情的平台和一些本身就是色情的平台比如说 Prom Hub 那但是像 Prom Hub 这样一些平台呢他其实是在很早的时候就已经禁止了 De-fake 的视频但是

就像我刚才说的这样子主动的去监测所有的视频是否是 de-fake 生成的视频对他来说成本是比较大的所以他其实是没有这样主动监测的这样机制而是依靠用户的举报然后那一些本身不是色情视频的平台他们当然会使用一些现有的工具来监测

现有的监测是否是色情的工具来监测这些视频但是他们也只会监测是否是色情的视频而不会监测是否是 de-fake 生成的色情的视频然后他们可以做到的其实也只是删除这些数据

或者让用户禁止这个用户但是对于已经生成的或者已经生成的数据它的传播是其实也是没有办法干预的然后因为我们刚才也提到说这个 AI 的偏见其实是社会偏见的这个投射其实在 AI 伦理的领域里有非常多的讨论是说

如何去消除这些 AI 造成的偏见比如说我们刚才提到的说人类识别或者是什么样的识别它可能会造成就是更多的是男性或者更多的是白人那很多的讨论都是在于怎么样去弥补这些偏见或者怎么样就是一些公平性的问题但是有一些学者就提到说那我们修正这些

呃共所谓的公平性的问题或者偏见的问题其实是忽略了社会本身这个偏见的存在他把解决社会的偏见放在了次要的位置让人们误以为呃

如果 AI 没有了偏见 AI 能够达到公平这个社会就是一个公平的社会但其实就并不是这样因为你刚才提到了就是我们怎么样去让这个算法变得更公平一点或者是怎么样能弥补算法的问题那这其实是谈到了一个算法的透明性的问题

因为也有很多网上的讨论说我们没有办法知道这个算法的里面是什么算法是一个黑盒然后不知道算法的里面是什么所以我们没有办法所谓的控制或者了解算法能带来什么会对这个比较紧张然后所以也有很多的讨论针对说如何让算法变得更透明如何让大公司去公开他的算法但是

也有一些研究或者学者会觉得说其实希望算法变得更透明它会模糊化了算法或者是技术本身它是一种权利和权利的使用大公司或者既得利益者他把什么样的算法变得透明什么样的技术变得透明或者说是怎么样利用这个技术去达成他的目的这个才是更重要的部分而不是算法本身

他能够做到什么他的内核是什么我觉得这和刚刚提到的你在网络空间获得了一个去为潜在的性暴力去创造了条件的这样的一种权利从这个角度理解技术理解科技我觉得是对我们在日常生活中去看待 AI 或者说去看待 DeepFake 这样的技术是

呃很有帮助的因为比如说呃我会看到网络上会有这样的评论就对针对 deep fake 这样的评论会有人说呃那怎么样让女性避免受到这样的伤害那把脸遮起来就好了这样的一个所谓提出的保护的对策他其实是没有看到说为什么 AI 在很多时候是站在我们的或者说站在女性的对立面的并不是因为呃

你的图像被利用了你的仅仅是有关你这张脸仅仅是有关于这个肖像权本身我觉得它背后还有很多这种在科技的应用当中和这个社会当中的性别偏见非常难分开非常搅和在一起的地方所以我想说能不能请你介绍一下一些可能在我们日常生活当中比较常见的一些技术或者一些常见的科技当中

性别上的或者说种族上的偏见可以举两个就是大家可能也比较了解也听说过的例子吧一个是亚马逊的 AI 招聘系统亚马逊在 2014 年的时候他开发了一个新的 AI 的招聘系统那他可以用来自动筛选投过来的简历然后把一些比较符合这个岗位的简历再进入下一个流程

即使这样子的 AI 系统现在在国内也会有一些就是在这个招聘系统发布一年之后呢他们就发现了这个软件当中的存在的芯片偏见就是太对女性的非常不友好因为这个软件系统其实是根据过去十年的投递投递的情况投递简历的情况以及录取的人来设计的

过去招聘人员希望有什么样的简历类型或者希望有什么样的人才画像那就会让这个 AI 变得更去挑选什么样的简历那因为过去的亚马逊在过去的十年里更多的接受男性的简历或者更多的倾向于选择男性的面试者所以说

这个 AI 会自动的把女性字样的这个简历标记为更低匹配度的

但是亚马逊在 2017 年也就是发现了这个问题的两年之后才停止这个项目然后这是一个然后另外一个是微软的派聊天机器人然后是在 2016 年他们推出的是在推特上他们做了一个这样一个聊天机器人他会模仿 19 岁的美国女生的说话方式然后和他的粉丝们聊天

回复粉丝们的对话并且会收集这些对话作为他们接下来对话的这样一个素材和数据那在这个聊天机器人推出了也就是 16 个小时之后这个 Tai 机器人就因为他发表了很多种族歧视的言论而被迫关停了那大家分析这个原因是因为就是留言者这个粉丝讲了许多比较

比较偏激的比较种族歧视性别歧视的言论然后才让这个聊天机器人也变得会发表这些种族歧视的言论这样的故事其实是对我有一些影响的因为第一个我在看第一个故事的时候我是会对这样子 AI 系统会不满他会

更倾向于男性但是我也会想说那人类的 HR 会做得比 AI 更好吗我觉得不见得吧因为我现在在用 HP 的时候我也会觉得说他说出来这些所谓政治正确的话已经比我认识的国男说出来的好多了虽然他依旧也有很多的偏见但是我觉得这个政治正确已经是

我比较能接受的了所谓的 AI 的这些偏见它是按自己数据的偏见但是人类的 HR 真的能做得比它更好吗

然后我是有这样的疑问但是我了解第二个案例之后我现在就会想说即使人类的可能并不一定做得更好但是 AI 因为它可以产生和处理更多的数据所以它会在更短的时间里爆发更严重的问题所以说 AI 的这个偏见 AI 的这个歧视其实是加速以及放大了社会中的这样一些偏见

所以后来我可能会觉得说 AI 的偏见不一定会比人类的偏见更严重但是它造成的影响可能是会比

我不知道人类的更严重吧这样子对于我来说我会觉得在知道一些有一些基础的这样知识比如说 AI 是如何运作的算法它是怎么生成的或者我知道这个算法所呈现的这样的偏见它其实是源于我们生活当中的

或者说以及有关于比如说 AI 是怎么处理色情和这种其他限制性内容的话我觉得我觉得有这样的知识会相比不知道然后去期待说 AI 是一个一个一个很中立的工具对

对人类对他有完全掌控权的这样一个工具来说我觉得有这样的知识和意识会比没有的要更好一些期待未来可以有更好的反 DigFake 的工具技术就即便我有读到这样的新闻我有意识到这样的事情我也有意识到说这种这种深维的色情影片它的它有多严重但对于我来说我还是不会去真的去 GitHub 上下载一个

这样的反 deepfake 的东西装在我的社交媒体上或者我不会去用它那是不是可能对于还是之前我们讲的可能技术或者说去运用一个技术或者去了解一个技术它本身其实也是一种嗯

对是一种很特权的表现还是又回到法治上的层面我觉得的确是应该有可以覆盖到更多人的这样的法律去让这些可能没有特权没有资源没有办法去接触到这样的技术用技术本身来保护自己的这些人我觉得法律本身也应该要保护到这样的人去是

对那我们今天就先聊到这里谢谢稳静参与这一次的讨论那我们下期再见拜拜