cover of episode 48. AI监管难题,美国、欧盟和中国各自选择了哪种道路?

48. AI监管难题,美国、欧盟和中国各自选择了哪种道路?

2024/9/20
logo of podcast 合以见得

合以见得

AI Deep Dive AI Chapters Transcript
People
周辉教授
Topics
周辉教授在节目中深入分析了美国、欧盟和中国在人工智能立法领域的最新进展,并对这些举措对企业的影响和风险进行了评估。他指出,美国在AI立法方面采取了联邦制和三权分立的模式,联邦层面没有一部综合性法律,而是针对具体场景和领域进行立法,对政府使用AI的监管较为严格,而对市场监管较为宽松。欧盟则在AI立法上经历了漫长的谈判和妥协,最终形成了一个根据风险等级对AI系统进行不同程度监管的法律体系,对违规行为的处罚也较为严厉。中国在AI立法方面,目前正处于研究和制定阶段,未来需要对现有法律进行调整和完善,以适应人工智能时代的需求,并平衡权利人和AI企业之间的利益。

Deep Dive

Chapters
本章探讨了生成式AI的快速发展原因,从数据、算力、算法以及资本投入四个方面进行分析,指出技术沉淀和资本注入是AI跃迁的关键因素。
  • 数据、算力、算法是AI的三大要素
  • 技术沉淀促成了历史机遇
  • 大量资本注入是AI快速发展的重要推动力

Shownotes Transcript

生物人工智能和之前的人工智能有很大的逻辑的不同它是通过这种大量的数据去进行训练已经突破了之前通过演绎的逻辑去发展这样一个脉络

因为美国历来的一个政策是对政府不太信任的所以他们更多的担心政府用了 AI 以后会不会加剧一些所谓这种人权的保护的风险它的现有的人工智能的这种法律都是管政府的就政府应该怎么样去合法地公平地去用这些人工智能系统和工具

前幾天歐洲委員會還宣布了這樣一個國際公約美國和歐盟他們在監管的尺度上會有差異但在一些問題上其實有共識的這些共識在美歐之間會形成一個話語權將來是不是可能會傳導變成一個全球的規則

各位朋友大家好欢迎收听本期何以见得这期节目是以此线下分享我们邀请了中国社会科学院周辉教授为我们分享美欧人工智能立法影响和中国人工智能立法趋势

周辉教授是中国社会科学院法学研究所网络与信息法研究室副主任、副研究员中国社科院文化法治研究中心研究员中国社会科学院大学法学院副教授硕士生导师负责起草了人工智能示范法

有關 AI 的話題我們之前已經聊過一些包括技術演變、場景應用、商業化等方面這次我們從立法的視角展開重新認識一下這個行業歡迎大家在評論區留言互動非常感謝中歐商學的邀請今天主要去註教的是在人工智能技術和治理方面最有代表的美國和歐盟

然后我也会跟大家报告一下中国当前人工智能法治建设或者说监管方面的一些最新的情况和我们团队目前对于未来中国人工智能立法建设有哪些建议和思考当然也非常欢迎能够听到大家对于中国未来怎么去完善中国的人工智能治理给出一些建设性的意见和建议

首先我们来看一下美国人工智能这一次之所以成为热点来源于就是去年的这波深圳市人工智能的快速的发展但我们不禁要想人工智能作为一个技术还是作为一个学科的概念其实它是有几十年的这样一个历史那为什么在去年而且还是在美国有了这样一次蓬勃的发展大家可以去想一下这个问题背后有哪些因素

首先我们可以看到就是人工智能我们现在一般去讲它有三个基本的要素数据 算力和算法那恰恰是在过去几十年里面一些这种技术的沉淀促成了这样一个历史机遇的形成

今年还是一些重要的实验节点是中国全功能接入互联网 30 周年也是我们现在提出中国的网络法治建设 30 年我想说的是我们中国来说经历了这种 30 年的互联网的商用的发展我们积累了大量的数字化的这些数据那有了这些数据才使得人工智能的训练有了基本的物料

在上世纪五六十年代其实最早人工智能快速发展的时候他们有多少数据跟我们完全不在一个量级上这是我们说在这个时代一个最大的优势第二个就是有了这些数据怎么能把这些数据它的资源给发挥起来这就需要算力和算法整体的这种优势这两个在过去一二十年里面也是有了比较快速的发展

算力我们都知道的是像英伟达所代表的芯片在内的这些硬件的这种支持,其实除此之外还有各种软件的支持,因为英伟达真正的竞争力大家可能只关注到了它这种芯片,其实英伟达它的另外一个优势是在于背后的把它这种芯片的资源调动起来的,叫 CUDA 的这样一个类似于微软的操作系统,

能够把这些算力的资源最大化这也需要相应的技术的储备除此之外的像这种深度学习的算法等等使得整个新一代的

人工智能有了进一步爆发的技术的一个基础而且这种生物人工智能和之前的人工智能有很大的逻辑的不同它和之前的靠这种演绎的逻辑去发展的人工智能是有不同的它是通过这种大量的数据去进行训练已经突破了之前通过演绎的逻辑去发展的这样一个脉络

除了这三个之外其实还有一个重要的因素是经常被忽略掉的因为人工智能的这种发展尤其是到了需要去训练大量数据的阶段它是需要什么需要投入大量的资本的需要投入大量的钱的那这些钱为什么会投入到这里面来我想这个我们也可以放在整个全球的经济形势的脉络下来考虑

是不是在过去几年里面全球的资本其实并没有一个很好的投资的一个去向而人工智能的这一步发展恰恰提供了一个很好的一个故事使得这种大量的资本能够注入到这样一个领域里面来

这些因素其实加在一起才是促成了新一代人工智能或者甚至是人工能这次的大的发展大的一个飞跃而美国恰恰是这些因素都具备的而且在这些具备之后还要考虑的就是为什么大量的资本能够持续地去投入下去这背后也需要考量的是相应的法律制度的保障使得这些投资人有一个相对稳定的投资的预期或者说他投资风险能够得到相应的这种保障

就这些因素是我们去考虑为什么美国在这一次人工智能发展中继续的这种独占凹头

那当然我们讨论到人工智能的治理的问题的时候会考虑到它的相关的这种风险它这种风险的维度其实有很多大致可以简单区分为两类一类是我们短期可以预见到的相对来说我们有手段去控制到的风险还有一个就是我们即便能够假想到但可能将来很难用现在的这种制度去框得住的这些风险这个问题就涉及到未来人工智能的发展

是不是会到一个超人工智能或者强人工智能的阶段如果说到了超人工智能阶段可能是就不能在现在这样一个场景下来讨论已有的这种法律制度 已有的这种法律工具甚至已有的我们各种概念和范式去回应的所以我们当前的考虑还是在一个还没有到达强人工智能没有到达超人工智能的阶段

当然不到这个阶段也并不意味着不会有灾难性的风险我们去看后面待会会介绍无论是美国或者欧盟的法律的监管其实它也会把这种灾难性的风险作为一个重点只是说它规制的角度上可能还会有一些利用现在的工具去尝试去规制这些情况

如果去看美国在这方面的法律的布局的话可以发现的是它其实在这一波的深圳市人工智能之前就已经有相关的立法至少它的国会有相关的动作我目前梳理到了最早的比如到 2019 年的时候

一方面他们当时就已经关注到了一些人工智能可能的风险包括这种算法黑箱可能会对一般的公民的权益包括对这种在美国所特有的种族歧视会不会因为算法进一步去加剧

等等都会去关注另外一个其实像美国也会关注到怎么去维护它在新一代人工智能技术发展的这种背景下来保持它的这种核心的这种竞争力所以美国对于它自己的这种竞争优势一直还是保持一定的这种关心甚至有一定的这种顾虑啊

和忧虑的我们可以看到美国也会去在政府人工智能活动包括军事领域去设计一些法律制度而且有些法律是通过并被总统签字的就是已经成为生效的法律的

那有些还只是一个法案它的国会议员在国会里面提出了这样一个想法并没有最终通过在这个角度上我们可以说虽然今年欧盟通过了被称为世界上第一部综合性的人工智能法但是如果说法律里面含有人工智能字的关键词的这种法律的话美国其实已经有好多部这是它在 19 年到 2023 年我们可以看到的一个基本的情况

新一代生殖式人工智能涌现之后它的国会相应的法案也进一步去增多了很多法案是得到了美国民主党和共和两党的这种议员的支持的除了联邦层面其实美国也需要关注的是它的各州的层面这里可能简单跟大家补充一个背景就对美国的体制要做一个和我们中国有很大的一个不同因为美国是一个联邦制的国家而且这个联邦制的在中央它又是一个三权分立的地方

所以围绕人工智能的政策和监管不单单要看国会怎么做还要看它的行政分支就是总统怎么做还有看它的法院会做出什么样的这种判决就国会这一个分支并不能直接决定美国整个人工智能治理的全局

那同样的联邦层面也并不代表着美国整个人工智能相关的法律政策的一个全貌还要去关注的是各个州的相关的这种举措待会我们可以去看最近其实讨论比较热的恰恰是在美国的加州那整体看美国的人工智能的立法从联邦的层面的话它有什么样的一个特点

我可以先提出来 待会儿我们可以再看一些细节第一个就是说它虽然没有一个综合性的立法一部法律去同览全局既规制政府又规制市场既设定权力又规定义务没有一个这么全的像欧盟的人工智能法这样的一个法律但是它在一些人工智能的具体场景和不同领域里面其实有相关的立法的

这些立法既包括一些联邦的部门出台的位阶比较低的对比中国的话就可能是一些规章也包括是既有的一些法律延伸到人工智能时代的一些应用就是比如 FTC 针对这种反垄断和消费者权益保护的这样一个既有的 FTC 法

它可以继续在人工智能的场景下用比如你在人工智能那种商品或产品提供服务的时候你也不能去欺瞒欺诈消费者同时针对竞争的问题大家如果关注相关的这种资讯的话 FTC 最近其实在这方面也动作频频就是来警告甚至已经开始了相关的调查

对于美国的像微软这种竞争对手潜在的这种垄断的这种问题去采取一些预警的这种措施其他的还包括像医疗交通国防等方面都有相关的规制性的政策和规则但是反过来因为美国历来的一个政策是对政府不太信任的所以他们更多的担心政府用了 AI 以后会不会加剧一些他们所关注的所谓这种人权的保护的风险

所以它的更多的现有的前面看到的那些已经通过的人工智能的这种法律都是管政府的就政府的应该怎么样去合法地公平地去用这些人工智能系统和工具特别重要的是

特别是美国在很多这种政府福利的提供的过程中它也会引入这种 AI 进行这种自动化决策来降低这种人力投入的成本那这种情况下它就尤其要避免一些算法有益的或无益的对一些弱势群体包括对一些特定的种族可能造成的这种歧视这些是他们目前有强制性要求的规则的重点第二个针对市场的监管

是比较宽松的这个刚才已经讲了它的一个宪法的背景和它这种党派的这种之争导致了对市场监管很难形成合议第二个呢美国的这些企业特别是 AI 的大企业他们的政策游说能力很强所以在联邦层面会形成比较大的阻力去设计相应的这种强监管的联邦的立法

而且即便有相应的法律和政策的时候,这些大的企业都是深度参与的。美国在去年曾经白宫组织了两轮,有这些头部的 AI 企业参与的叫做 Volunteer Commitment,自律性的这种承诺。这些承诺的文本,90%都是这些大的企业,他们的智库的或者他们的 GR 的人员去执笔写的,所以写的结果肯定是对他们有利的。

包括我们待会儿会介绍的他去年出台的白宫的人工智能行政命令内容很多也是大部分贡献来自于这些 AI 企业所以由他们去起草的文本本质上也肯定会对他们有利的

第三个也就是刚才强调它的这些监管宽松都是针对美国自己的企业针对于它已经把中国这样的界定为竞争对手的国家和相关联的企业它是一个强监管的它在各个方面会设计一定的门槛或者一些管制性的措施来约束我们的这种发展或者说增长的这种潜力

那在内容上如果有的话第一是去促进人工智能怎么样去创新的发展它会推动这种学科间的合作包括产业界的这种交流以及政府去进行必要的这种投资采购和应用美国我们看到每年的财政预算都是巨额的我们可以想象美国是怎么样去补贴它的军工产业就可以类比到 AI 产业美国是有什么样的一个手段和措施

第二个就是针对这种可能的风险去防止不安全或者无效的系统它尤其关注的风险是这种生成式人工智能可以歧视很多知识扩大既有的像生物武器化学武器核武器扩散的这种风险这个是美国人极度担心的

第三个就涉及到一般意义上的问题就是确保这种数据和隐私的安全因为人工智能的发展离不开刚才所提到的这种大量的数据的投位和训练那在这种过程中怎么样去有效地保护公民的这相关的这种权利这个也是他们去关注的

但这个难度其实目前比较大因为美国在过去十几年里从它的联邦的议员到产业界和学界都一直有一个去制定一个统一的类似中国的个人信息保护法的东西但一直没有出台那会不会在 AA 的这种场景下因为这种担心来加强这方面的立法呢这个也是可以去观察的

再有就是和人权相关的歧视前面已经提到再有就是作为 AI 如果是一个产品一个系统的话他们会关注在具体的这种治理的形式上去建立一个人工智能的问责的制度确保这种开发或者研发和部署能够有相应的责任人有相应的这种遵循的技术标准

这一点美国在去年成立了一个机构在积极地承担这个工作这个机构就是叫 AI Safety Institute 就是美国的人工智能安全研究院它现在一方面是在寻找比较大的国际的盟友像英国 日本都成立了相应的人工智能安全研究院他们要制定这方面的国际标准

这些标准虽然在美国的这个场景下是一个自律性的不具有强制性的但是因为这些标准是这些 AA 的大厂都深度参与的当这些头部的 AA 企业都去采纳这个标准的时候它就变成了一个市场上一个支配性的一个标准使得其他的你要参与到这个市场的机构或者市场主体也必须按照他们的标准和规则来

所以如果我们有相关的这种产业要参与到这样一个国际的市场之中去就必须要关注他们在这方面所推动制定的标准另外一个治理的一种工具就是来增加这种透明度这种透明度一方面是针对这种内容上像美国在大选期间他们一直都在关心的就是这种 fake news 在社交媒体上的传播就认为这种因为这种深度合成这些技术可能造成的这种

这种虚假信息那是不是已经在要求这些社交平台包括像 MetaX 还有像中国的 TT 现在都建立了一定的水印来做这种透明度来支撑确保相应的内容如果用了 AI 有相应的公式但这个实际能做得怎么样其实还是有很大的探讨空间

那我们再来看他这个州的立法当前的一个焦点就是加州我们看在这波人工智能之前的整个网络数据领域法律政策讨论比较多的就是这个个人信息保护或者数据立法那欧盟有他比较严格的叫做 GDP2 叫通用数据保护条例

加州作为被认为是一个有硅谷有这么多的科技企业应该对科技企业会比较亲近的一个地方但是他们在出台相应的这种科技立法方面其实也是非常积极最近的就是加州他们有议员提出了这样一个人工智能的监管法案目前这个监管法案已经通过了加州的州层面的这种议会的表决能不能通过其实现在就看他的纽森州长签不签字

威尔这个有很多的这种讨论和批评他们担心的就是因为这种大的模型先进的模型可能会造成的前面所提到的极端风险的存在他们其实对这种超人工智能会到达的这种时间的预期比较宽所以他们认为应该缓一缓那缓一缓的一个方式就通过立法来监管相应的风险

那以上都是立法分支包括联邦的和州的那我们再看看行政分支行政分支就是白宫这条线最代表性的就是去年 10 月 30 号拜登所签署的这样一个人工智能行政命令需要强调的就是一 它的行政命令不像中国的国务院出台的那种行政法规那样有强制的约束力法院并不必然要按照它这个规定去判决

所以它的实际影响力相对有限第二个它这里能够去指导的去出台政策的部门都是美国的内阁部门像一些独立的机构我们可能听说过的 FDA FTC 这些独立的机构是不受美国总统领导的这里只能是去建议他们做什么政策所以美国的整个的监管的格局会相对比较复杂如果大家要关注美国的相关资料

相关的场景的时候不单单要看联邦政府做了什么还要看这些独立的监管机构有哪些相应的这种政策

那未来要看的话民主和共和两党在人工智能的监管立场上还是有很大的不同共和党立场是非常鲜明的在他们的竞选的这个政纲里面有一个明确的说法就是一旦上台他们将废除拜登的行政命令而且根据特朗普在上一任总统任期内他一直坚持的一个立场是 de-regulation 就是去监管就是要压缩政府监管的范围很多政策都进行取消或者废止

那针对人工智能的监管可能会更加的宽松那如果是哈里斯当选的话大概率就会继续延续刚才提到的这样一个人工智能行政命令所确立的一些框架和内容那如果是企业的话我们怎么去应对相应的情况呢第一呢要去遵守联邦和州人工智能法律所规定的不同的义务

如果你在哪个州去运营你还要去找当地具体的这种法律事实上除了加州之外在科罗拉多州也已经通过了州层面的人工智能的法律

第二个呢是要遵守人工智能不同应用场景的不同要求这一点就看从事的具体的人工智能应用的行业是在金融还是医疗以及相应的这种部署会不会对就业对竞争产生影响那么可以简单举几个例子第一个比如在金融领域美国的消费者金融保护局这个是在

应该是 08 年金融危机之后新成立的一个独立的监督机构它针对这种贷款人使用人工智能拒绝信贷的这种情况这个其实是主要对金融机构各个银行他们会有要求贷方在使用人工智能和其他复杂的模型时必须遵循这个规则里面的要求在对消费者采取不利行动时要进行具体的说明理由第二

第二个比如在知识产权申请的时候去年美国版权局今年专利商标局分别针对这种版权登记和人工智能的这个辅助发明申请都做了相应的这种提示就是你可以去用 AI 来进行创作甚至用 AI 来辅助你的发明的创造但是比如涉及到专利的时候你要把核心去强调你自己在这方面的贡献是人类的贡献而不是机器带来的这种贡献

那涉及到住房和就业主要涉及到要避免这种偏见和歧视那反垄断的话也是刚才所强调的他们会针对这种明显的影响竞争的情况会进行执法

第三个对于我们可能尤其明显的就是供应链的安全简单来说就是美国的数据从美国拿到中国来原来是相对自由的现在来说是有严格的一个管理的这种要求这样一种情况下如果涉及到对美国的相应的无论是个人的数据还是政府活动的数据需要去进行训练的话要避免相应的这种风险那投资的话

也是目前美国做了更加严格的这种约束相对来说就是如果美国的资本来投资于中国相关的这种技术产品和行业的话美国会进行相对严格的这种闪查

第四个就是针对刚才所提到的资本的审查它的细节一方面它是要求针对涉及特定种类先进技术和产品的国家的投资比如针对中国的投资要进行额外的申报而且是禁止对涉及特定种类的先进产品技术的这种特定投资交易甚至是禁止的对一些先进的人工智能的这种投资就存在这种情况这对于一些处于融资阶段的

初创企业来说可能要有其防范因此而造成这种投资中断投资撤回的相应的这种风险欧盟的话在这一波甚至是人工智能的发展的过程中其实它和之前无论称之为是平台经济还是数字经济或者是互联网经济相比相对有一点不同因为在之前欧盟是没有成长出来自己的大企业且不说头部企业

那在这一波的生存式人工智能发展中呢无论像 Higginface 虽然它可能是在美国的一个企业但它的核心成员其实都是有法国的这种背景的而且像 Metal

Meta 它的首席科学家其实也是法译的那德国和法国在去年的时候就已经发展出了他们自己的这种 AI 的基础模型所以在这方面欧洲来参与人工智能产业和技术发展的这种竞争它是有一定的这种信心想法的

所以这一点就会导致他们在立法上会有一些徘徊徘徊我们可以去看的是欧盟的人工智能法案的它的制定的这个过程当然在人工智能法前面他已经做了一些法律和政策的准备但是他的 AIA 也就是人工智能法最早做这个制度设计的时候其实是在 2014 年

2021 年那也是在这一波生成是人工智能之前它当时的这种制度设计会更多的把人工智能当作一个产品来管理更多的像一个新版本的更新版本的一个产品安全法

到了深圳市工程度发展之后它的整个内容需要很大的一个调整和变化但主要的我们今天需要关注到的是它很多制度的设计在监管的门槛上有比较大的一个变动源于刚才所介绍的这个背景就是法国和德国尤其是法国政府

在最后他的立场是非常坚定的就是欧盟的立法要么不要出来要么出来的话不要给法国的这种 AI 的企业造成过多的这种监管的这种负担所以在 2023 年 12 月的时候围绕 AI 到底怎么改以及 AI 要不要继续制定下去他们是经过了非常密集的这种内部谈判的最后

最后做了许多重大的妥协才在今年最终完成了他的立法的程序欧盟最后的立法也是服务于欧盟自己的利益的这是他的法律的一个整体架构是 13 章 113 条不去具体介绍了因为大家如果相应的需求应该可以找相应的律师去解决相应的具体条款的问题

这是它的一个最终试用的一个节奏它是在上个月正式生效的但是按照法律的要求它是在 2026 年整体开始试用只是针对一些情况做了一些提前试用设定了一个例外是延后试用提前试用的是它的总则的情况和针对不可接受风险人工智能的规则的试用针对这个的话我们就要去看试用范围和它对风险的一个分类

欧盟的人工智能法针对的还是一个叫做人工智能的这样一个系统这个系统技术界定很长核心两个关键词第一就是能够不同程度的自主性运行第二个是它是可以收到的这种输入中来推断出相应的内容

在适用上它不单止适用于欧盟的机构其实也适用于欧盟以外的这种公司只要这些公司将它的这种系统或模型投入到欧盟的市场不管这个企业是在欧盟设立的还是在其他国家设立的

当然它有一定的例外这个例外呢第一呢是不适用于警卫科学研究和科发目的而专门开发的这些人工智能系统和模型所以如果我们只是做科研目的的话大可放心第二个是不适用于纯粹个人非专业活动中使用人工智能系统的自然人针对自然人是排斥的第三个是针对军事国防和国家安全目的就是如果我们设计做军事领域的应用的话也是护免于这个人工智能法的

它最大的一个特色就是它针对不同等级的风险去设计了不同的监管的要求第二个是需要接受比较高的监管的称之为这种高风险的人工智能系统第三个等级就是有限风险的这种人工智能系统针对这个它的法律没有进行明确的强制性的太多的义务核心是在一个透明度上至少让你的用户能够知晓潜在的这种风险

最后一个等级就是除了以上之外的是没有任何要求的那这些呢它只是通过市场自律的方式来进行所以只有到这个层面欧盟的这种监管的逻辑才会和前面我们提到的美国的逻辑是相通的欧盟它也是一个超国家的一个组织但是欧盟权力并不取代成员国的权力

那欧盟人工智能法未来的执法其实分成两个层面一个是欧盟层面的执法还有一个是欧盟成员国层面的执法在前面所提到的法国的最后的这种博弈的关系中其实也达到了一个妥协就是针对大多数场景就是前面所介绍的这种大多数场景它的监管是由它的成员国来确定相应的监管机构来执法的所以不同的成员国就可以根据成员国自己的这种立场来决定这种监管的尺度

但是针对这种通用目的人工智能所谓通用目的人工智能就是它可以把人工智能用于多种目的多种场景潜在的风险可能会更大的这个是由欧盟层面来管的欧盟专门成立了人工智能办公室来进行相关的监管

最后可能是我们很多人会关注的就是如果我们没有做到会承担什么样的责任呢应该说这个责任还是比较重的它延续了欧盟 GDPR 通用数据保护条例以来的巨额罚款的这种机制比如不遵守禁止性的风险最高等级这种风险那可以最高被处于 3500 万欧元的罚款也可以是它上一财政年度全球营业额的 7%

这对于一些大的企业特别像美国那种跨国的 AI 巨头来说就百分之七是远远会高于它的三千五百万的这个明确的一个金额那这两个标准一般是以较高者为准但是有个例外它针对这种初创企业所以自己的定位也很重要针对初创企业的话它会选择让你用一个较低的标准

对企业来说如果要满足相应的这种合规的要求其实要做的动作还是不少的包括我们最近接到像国内的很多大的企业无论是华为还是小米他们其实都已经开始在部署怎么样去进行 AIA 的这种合规能够做的动作其实大概就包括去

去识别自己到底是一个什么样的 AI 系统可能会带来的风险属于它的哪个类别然后去确定相应的这种合规的方案包括对自己的员工去进行相应的这种安全的这种管理和这种培训因为人工智能和数字经济有很大的类似性它将来的风险必然是一个对全人类的风险一旦它在某个点上实现了这种涌现造成了一个大幅度的

大的这种技术上的飞跃可能带来一个前所未有的挑战的时候它可能不单单对一个国家受到影响可能会对全球造成影响

中国的人工智能立法应该说从决策层来说是高度关注人工智能的技术的发展和突破的在去年两会的时候发布了 14 届全国人大常委会未来五年的立法规划就有提到人工智能当然这提的是比较模糊的它的表述是说推进人工智能健康发展需要

需要制定修订废纸解释相关法律决定的推动相关的工作也就是说并没有明确说是制定一个法律还是出台一个决定选项很多

但到了今年我们看到 2024 年年度的立法计划的时候这个表述已经有了调整是明确说研究人工智能健康发展方面的立法项目那未来人工智能立法应该是说我们认为一个趋势包括我们提供给觉得层的一个建议就是说能更好地去顺应发展的需要

人工智能立法我们的立场是认为是必要的就是我们一定要把法做一个更全面的理解这个法不单单是管理的法而且不单单是管市场的法我们认为这个法也应该去规范政府的行为规范政府的这个程序

其实我们现在更多的就是需要去把政府的一些监管程序进细化来提高我们市场的这个预期另一方面呢有些在人工智能时代是需要对既有的一些法律去做突破的无论是我们现在说一些作品的这种高质量的数据就需要把制作权法保护的这种刚性的条件去做一些适当的调整

包括我们说这种对于个人数据的这种应用按照目前的中国的个人信息保护法是非常严格的同意授权才能用就这些是不是可以在人工智能的时代场景下做一些调整和完善第二个当然确实也要防范风险因为我们知道它可能会带来一些很不确定的一些新的问题

我们现在的建议包括目前讨论比较多的在前端的环节一个方面是去把现有著作权法已经建立的法定许可机制和合理使用机制去进行更大的这种突破所谓合理使用就是我用你这个是合理的是可以不付费的也不用经过你同意法定许可呢就是说我拿到这样一个许可的话可以不用再经过你的授权但是我要给你付费这两种呢应该说各有各自的这种优势

合理使用的优势是说对于 AI 的这些企业来说太友好了太友好了那可能会对诸多权人有点失衡所以我们认为把合理使用限定在一定的公共的这种必要的这种目的里面其他的更多的商业场景可以通过创设这种法定许可的机制只有这样它可以在非常高效的这种情况下取得这种作品训练的这种可能性

可能同时相应的权利人他也能得到一定的经济上的补偿各方的利益相对比较平衡提供和使用环节如果是直接对相关的权利人造成损害的要承担这种责任如果是他的用户使用造成问题的那这种 AI 的模型技术模型的企业没有共同的这种故意的在采取一定的这种合规措施或者采取一定的这种提示措施的时候是可以免于承担责任

这个被称之为避风港我们看整个互联网时代的发展其实就源于美国 1996 年的一个法律所创立的一个避风港它的核心就是这些网站不需要针对网站的这个用户所生成的内容承担连带责任这样一个规则为整个互联网时代的这些企业的发展其实提供了很好的一个激励那我们就需要在人工智能时代去更新这样一个制度设计

那如果没有过错怎么去保护它呢这个可能更复杂一点比如如果你前端是通过法定许可或者合理使用进行创造的你已经占了便宜所以你后面的这种利益呢就要让渡一些给社会如果前端是完全通过购买获得的这种数据训练的话那后面的权利呢会更强你可以主张的利益可以更多以上是我对这个整体情况的一个介绍好 谢谢