The main goal is to protect health, safety, and fundamental rights in the European Union when AI systems are used, making AI more human-centric and safer to ensure trust and broader adoption.
The four categories are: unacceptable risk (prohibited uses like mass surveillance), high-risk systems (e.g., biometrics, law enforcement), limited risk systems (e.g., chatbots, deepfakes with transparency requirements), and no risk systems (e.g., AI in agriculture).
For limited risk systems, providers must ensure content is labeled (e.g., chatbots must disclose they are AI). Deployers have a best-effort obligation to ensure transparency, but the regulatory burden is lighter compared to high-risk systems.
General-purpose models above 1 billion parameters are subject to obligations, including maintaining documentation, complying with copyright laws, and reporting incidents. Models with systemic risk require dynamic supervision by the European Commission's AI Office.
Organizations should: 1) check if their AI systems fall under the Act's definition, 2) conduct an inventory of AI systems and their intended use, 3) identify if any systems are high-risk, and 4) follow the specific obligations based on risk classification.
AI literacy is a soft obligation requiring organizations to ensure operators understand the potential risks of AI, such as bias, discrimination, and over-reliance on machine outputs. It aims to prevent misuse and ensure responsible deployment.
The Commission can amend the list of high-risk use cases based on new risks. Guidance will be provided to clarify definitions and gray areas. Member states must set up national supervisory authorities, and the AI Office will oversee powerful models with systemic risk.
Challenges included negotiating sensitive topics like biometric surveillance, aligning the AI definition with international standards, and addressing copyright issues. The emergence of generative AI added complexity, requiring flexible rules for future-proofing the regulation.
我们最终得到了一部非常好的立法。你可以从它开始被世界各地复制的事实看出这一点,我相信随着越来越多的具有不同监管传统的国家开始研究,“人工智能的规则是什么?”,它将在世界范围内产生巨大的影响。♪
大家好,我是Adel,DataCamp的数据布道者和教育家。如果您是新手,DataFramed是一个播客,我们探讨个人和组织如何通过数据和人工智能取得成功。随着欧盟人工智能法案于2024年8月1日生效,我认为可以肯定地说,该行业正面临一个关键时刻。
这项法规是人工智能治理的里程碑式步骤,它促使数据和人工智能团队重新思考他们对人工智能开发和部署的方法。这项立法将如何影响人工智能系统的设计和使用方式?您的组织需要注意哪些关键合规要求?公司如何才能在监管义务与创新和增长动力之间取得平衡?
让我们请出Dan Nikita。Dan Nikita是跨大西洋政策网络的欧盟主任。他代表欧洲议会领导了欧盟人工智能法案的技术谈判。在他任职期间,除了关注人工智能外,他还担任欧洲议会议员Dragos Tudoraki的内阁主任,专注于数字监管、安全与国防以及跨大西洋伙伴关系。
此前,他曾担任罗马尼亚总理国务委员,负责电子政务、数字化和网络安全。在这一集中,我们讨论了欧盟人工智能法案的重要性、法案中的不同风险分类框架、组织合规战略、与现有法规的交叉、欧盟人工智能法案的人工智能素养要求以及人工智能立法的未来等等。
如果您喜欢这一集,请务必对其进行评分并订阅该节目。这真的对我们有很大帮助。现在进入今天的节目。Dan Nikita,很高兴您能来到节目中。谢谢,Adel。很高兴来到这里。很高兴能来。是的,非常高兴能与您聊天。您是欧盟人工智能法案的主要技术谈判代表。您还担任欧洲议会议员Dragos Tudorace的内阁主任。我真的希望我正确地念出了这个名字。
所以,为了奠定基础,欧盟人工智能法案将于2024年8月1日正式生效,您能否首先给我们一个概述?欧盟人工智能法案究竟是什么?为什么它是人工智能领域如此重要的立法?我希望您有足够的时间来为您概述它。但简而言之,我认为,你知道,它当然非常重要,因为它首先是
真正严格的法律,它为人工智能设定了规则,并且它在整个欧盟,也就是整个欧洲市场中都适用。这是一个非常重要的市场。我认为,为了让您了解,你知道,这是一份长达150页的文件,经过谈判之后,但试图捕捉到这一点
我想说的是,它的目标是使在欧盟使用的人工智能更加以人为本,并且更安全。这就是它的要点。当然,对此有一个合理的解释。一旦您拥有更安全的人工智能系统,那么您就会对这项技术更有信心。更多的信任意味着更多的采用。更多的采用意味着……
你知道,数字化转型、经济增长等等。但一句话概括,我想说的是,它的主要目标是在欧盟使用人工智能系统时保护健康、安全和基本权利。
好的,这真的很好。而且,你知道,你提到了,我们确实有一些时间。你提到有一个,这是一份150页的文件。带我们了解一下塑造人工智能法案的一些指导原则或关键基础。欧盟对人工智能监管的基本原则是什么?
这是一个产品安全类型的法规,这意味着在将产品投放市场之前,让我们假设,你知道,一个橡胶鸭子或一部电梯,该产品必须足够安全才能使用。它遵循相同的逻辑。
现在,对于人工智能来说,这是我讨论人工智能法案时必须反对的第一个误解。对于人工智能来说,这仅适用于对健康、安全和基本权利构成风险的那些系统。因此,基本上,它指的是可能影响自然人生活和权利的系统。
而且大多数规则,我们稍后会详细讨论,但我认为,大多数规则都适用于这些系统。如果您正在考虑在农业中使用人工智能系统来决定西红柿的浇水量,人工智能法案实际上不会影响到这一点,没有任何义务。当您真正进入决定人们的事情的系统,这些事情可能会影响到他们的基本权利时,规则才会发挥作用。
好的,我认为这很好地过渡到了我的下一个问题,因为我认为您如何在欧盟人工智能法案中对风险进行分类对于在使用案例中实施的监管类型、保护措施非常重要。所以也许带我们了解一下风险分类,欧盟人工智能法案规定的风险分类框架。
人工智能系统是如何分类的?对于这些技术的开发人员和用户来说,根据使用案例,这里有什么影响?好的,在这里我会更具体一些。从宏观到微观。
人工智能法案主要处理高风险案例系统,我们可以称之为高风险,因为这是一个名称。我们也可以称之为一级或二级,或者它是系统的特殊类别。
但它确实以从不可接受的风险到无风险的梯度来处理风险。我认为,人工智能系统被分为四大类。第一类是不可接受的风险。为此,我们使用了尽可能钝的工具,那就是禁止。而且那些,你知道,不可接受的风险,
使用人工智能系统真的是我们在欧盟不希望看到的。它违背了我们的价值观。它在欧盟真的没有用。例如,大规模监控或我们在专制国家看到的社会评分,根据社会评分歧视所有人。这些类型的系统被完全禁止。
它受到限制,而且它并不是系统本身,而是这些场景中的使用是被禁止的。当然,这些非常少,因为禁令是非常非常粗暴的工具。然后想象一下,当然,著名的风险金字塔。如果这是顶部,那么下一层将是高风险人工智能系统。
而这些确实是可能以重大方式影响健康、安全或基本权利的系统。因此,我们谈论的是处理生物特征的系统。我们谈论的是用于关键基础设施、教育、就业以做出关于就业关系的决定、执法、移民背景(例如,寻求庇护的情况)的系统。
在司法管理中,在民主进程中。这些是事先研究过的相当离散的使用案例类别,并被确定为对健康、安全和基本权利具有潜在风险。然后,随着您的向下移动,您将拥有有限风险的系统,这些系统
或使用案例并非直接构成重大风险,但它们可能会产生影响。例如,这些解释起来相当标准,例如聊天机器人和深度伪造,当然,这实际上取决于这些是如何使用的。并不是说它们具有内在风险。
但对于那些有限风险的使用案例,我们认为有必要提出一些透明度要求。如果您作为最终用户与聊天机器人聊天,您需要被告知这是一个人工智能系统,而不是您对话另一端的人。
然后,当然,大多数人工智能系统都是无风险或最小风险的。就像我之前在农业中举的例子一样,但您可以想到人工智能的许多其他工业应用,这些应用不会对健康、安全或基本权利造成风险。这些基本上是无管制的,除了可能稍后我们会讨论的一个小例外。所以这就是广泛的分类。但是现在你
你的问题有多个方面,所以我将进入下一部分,当然,人工智能已经发展,我们作为监管者也试图跟上人工智能的发展,确保法规也具有前瞻性,并适用于未来。因此,在处理非常强大的人工智能时,我们更关注为其提供动力的模型。在这里,我们谈论的是
现在的GPT-4和CLODS以及LAMA模型,这些模型现在已经处于人工智能的前沿。对于这些,某种类型的风险,系统性风险可能会显现出来,而它之前并不属于任何其他类别。系统性风险
当这些模型随后被使用和部署在整个经济或整个欧盟的下游不同系统中时,就会真正出现。对于这些,有一种不同的方法,因为当然我们谈论的是人工智能的前沿。
这是一种更具合作监管、合作创造的监管方法。也就是说,我们在欧盟委员会内部建立了一个机构,称为人工智能办公室,其目的是与那些构建这些非常强大的系统的人互动
并以动态的方式监督它们,就风险监控而言,就发生这些事件时报告事件而言,等等。而且,你知道,我们稍后可以更详细地讨论这一点。然后我确实记得你问的是提供者与部署者。
提供者是那些构建系统的人。这是你的,比如说,微软,或者它可能是一个正在构建人工智能系统的中小企业。许多使这些系统安全的法规都与他们有关,因为你在构建它的时候就在那里,所以你有一些义务来使系统安全。另一方面,用户是将该系统投放到市场的实体。在这里,
你真正明白了我在前面所说的内容,你知道,执法、移民等等。这些将是公共当局。对于教育来说,将是学校。它可能是机构。它基本上可以是任何使用这些系统的人。他们的义务较少,但仍然因为他们是那些在某些情况下使用它的人,他们有一套有限的义务来确保在他们手中之后,系统是安全的。
好的,这真的很好。这里有很多次。首先,让我们考虑一下风险级别,对吧?你提到了不可接受的风险、高风险系统、有限风险系统以及基本上无风险的系统,例如你在农业中发现的那些系统等等。所以,当你考虑这里的不同风险级别时,如果你是像推出可能符合这些不同风险标准的使用案例的组织,那么从监管角度来看,有什么影响呢?我知道没有风险,这里没有监管。带我了解一下,如果我是一个组织,想要考虑一个有限风险的系统,例如,我认为如果你是普通组织,大多数使用案例都位于这里,那么从监管角度来看,有什么影响?
回想一下,我说过这是一个非常冗长而复杂的法规,对吧?所以我认为这是个案,但我将尝试从影响方面进行概括。我会逐一介绍。我认为在禁令方面,这是相当清楚的,对吧?就像如果你从事那些被禁止的做法,那么你肯定不想那样做。为此而付出的罚款和后果确实非常非常高,并且旨在具有非常非常强的威慑力。
如果您正在构建高风险案例系统,现在我们谈论的是那些构建者,那么您必须在将该系统投放市场之前履行的一套义务,这些义务包含在合格性评估中。这涉及到
制定风险管理系统,拥有良好的数据质量、良好的数据治理、维护日志、维护文档,确保你知道,你的系统具有足够水平的网络安全等等。所以这些是如果你构建它的话的义务。如果你使用它,
您有一些义务,这取决于我们谈论的实体类型。因此,公共当局和那些提供基本服务的人,当然,这将对基本权利产生最大的影响。他们在将系统投入使用之前有义务进行基本权利影响评估。
而这种基本权利影响评估在某种意义上与 GDPR 中的数据保护影响评估类似。但它确实专注于确保在特定的使用环境中,人工智能系统在您使用它时确实按照其预期的方式执行。例如,假设您在主要由移民居住的社区中使用它。
该系统是否真的会像在普通社区中使用时一样运行?如果不是,您正在采取哪些纠正措施以确保它不会导致歧视?
然后是有限的风险,从提供商的角度来看,这很简单。因此,那些构建聊天机器人、可以生成深度伪造和生成内容的人工智能的人需要确保内容被标记。这是在提供商方面。在部署者方面,当然也存在尽力而为的义务。
在人工智能价值链中,这里有更多的参与者。因此,针对不同的参与者有不同的目标义务。例如,您采用现成的系统,然后对其进行定制以满足您公司的需求。
并且无论,你知道,是有意为之还是仅仅是您部署的方式,这都变成了一个高风险的人工智能系统。然后您承担先前提供商的责任,因为当然,一旦您对其进行了修改,您就改变了系统的预期用途。我认为,为了超越技术解释,我认为那些部署人工智能的人的一般含义是
将是根据法规中被认为是高风险的使用案例来检查他们的系统。如果是这样,那么当然您需要遵守其中适用的所有规则。但我也会说,如果它处于灰色地带,处于可能或可能不是的灰色地带
看,人工智能法案背后的意图是使这些系统更安全。安全意味着更多信任。这意味着在市场上具有竞争优势。这些都不被认为是不良系统。只是
它们变得更安全了。因此,在这些使用案例周围的灰色地带,我认为这意味着要尽可能接近一致性。但这,你知道,是另一个故事,如何做到这一点。我们肯定也会扩展到这一点。我很想知道您对哪种类型的使用案例属于哪种类型的风险的观点。所以我会举个例子。如果您是一个组织,其数据科学团队构建了一个内部数据科学模型来查看客户流失情况,例如。所以你正在查看客户数据,它
旨在内部了解谁最有可能流失您的服务,以及我们应该向谁投放广告,例如。因为在这里您正在使用人口统计数据和使用数据,但它的应用,就像最终流一样,只是有针对性的电子邮件,例如。那么,您将如何从风险级别考虑它,或者从欧盟人工智能法案框架的风险级别来看,这将如何适应?
这是一个很好的例子,我相信有很多例子属于这一类。我首先要说的是
通过人工智能法案,这不是一个高风险的人工智能系统。现在这真的取决于。这真的取决于应用程序。你到底在哪里做这个?你用它做了什么决定?最简单的方法是检查究竟是什么,因为有一份明确的使用案例列表被认为是高风险的,这个特定人工智能系统的用途究竟是什么?例如,
您的客户是获得大学录取的学生,对吧?您让AI系统决定哪个学生去哪个大学,那是您的客户,对吧?这与您提出的AI系统相同,只是现在您将其用于就分配给不同教育机构做出决定。现在,在这种情况下,这是一个高风险的人工智能系统。
但是,如果您使用它,例如,针对您鞋店的鞋类客户,您正在销售跑鞋,并且您正在根据使用人工智能的数据来定位不同的客户,在这种特定情况下,它不是高风险的人工智能系统。
因此,算法本身并不一定决定风险,就像预测最终产生的影响一样,只是为了阐明如何从概念上进行思考。是的,完全正确。因此,整个法规都是基于预期用途的概念。这并不是一个完美的基础,因为有些系统是现成的,您可以按原样使用它们。但在现实世界中,大多数情况下,您将有一个提供商与
部署者合作,将人工智能系统定制到特定用途。因此,如果,你知道,我再次进入公共当局的世界,我相信他们不会购买现成的解决方案。大多数情况下,他们会与提供商合作开发定制解决方案。因此,他们知道预期的用途。这就是确定,好的,这将用于高风险环境中的逻辑
使用案例发挥作用,激活为构建它和使用它的人制定的义务。也许让我们换个话题,讨论一下您还谈到的通用模型。我发现这非常非常有趣。我认为您在这里很好地定义了这些通用模型存在系统性风险,例如CLODS、GPT-4Os等,因为它们本质上非常动态,它们不是机械的,它们可以创建与它们试图创建的使用案例相冲突的输出,例如。
您提到那里有一种核心监管方法。但我也很好奇,如果通用模型用于高风险使用案例,那是否属于高风险人工智能系统,例如,或者这是否也通过不同的监管途径?
好吧,我们为此苦苦挣扎了一段时间,因为这是一个难题,对吧?例如,现在突然间,你决定作为一名警官询问ChatGPT是否逮捕某人,并且你根据此做出决定。将责任归咎于你的聊天机器人的制造者将非常非常困难,因为你决定滥用它。
因此,整个逻辑如我前面所解释的那样,是在价值链中解决的。我们试图通过考虑实质性修改,包括预期用途,来涵盖每一个可能的场景。
例如,如果有人采用通用模型并将其定制用于特定高风险使用案例,那么责任在于将该模型定制用于高风险使用案例的人或实体。尽管如此,这些都是齐头并进的,因为如果一方面你履行了你所有的义务,
但你的原始模型却明显偏向女性,例如。你无法在你的,你知道,履行你的责任的过程中控制这一点。
因此,对这些人有一些义务。现在,基本上有两个提供商也需要合作,以确保他们根据任何人在义务集合中可以做什么来履行义务。当我们讨论模型,特别是通用模型时,有一套
适用于所有模型的义务,这些义务相当轻微,但旨在帮助沿着价值链划分责任。例如,即使它们不是具有系统性风险的模型,参数超过一定数量的通用人工智能模型,
需要维护良好的文档并将其传递给随后将其进一步集成到其系统中的人。他们还需要遵守现有的版权规定,例如,在构建其模型时。然后,当您获得真正强大、具有系统性风险的模型时,所以在任何人获取和使用它们之前,他们需要进行
模型评估,包括对抗性测试。他们需要建立一个事件报告系统,并且他们需要与委员会合作报告这些严重事件。我认为网络安全在某种程度上是有道理的,对吧?特别是如果您谈论的是部署在整个经济中的非常强大的模型。因此,我们确实努力地理清谁的责任是什么。
因此,根据一个人在价值链中的确切位置,一直到最终可以做出这样或那样决定的警官,
有一系列责任涵盖了,我认为,大多数潜在的配置。而且,你知道,我认为我们肯定可以创建一个专门关注人工智能价值链的剧集。没错。欧盟人工智能法案是如何考虑这个问题的?但我想要换个话题,也许讨论一下欧盟人工智能法案的组织要求。我认为现在很多组织,好吧,欧盟人工智能法案在8月份生效。
我们需要考虑如何实现合规。我们需要审核我们自己的人工智能系统、我们自己的机器学习系统,并考虑我们的供应商,我们需要做什么。因此,从高层次来看,我知道这是一份150页的文件,但今天组织需要了解的主要要求是什么?也许他们如何开始准备履行这些义务?
他们会将其视为一个,你知道,几乎是一个决策树。因为它确实,虽然它是一份枯燥的文件,但它确实有一个非常合理的逻辑来确定谁以及他们有什么样的义务。因此,首先是通过查看基本上定义了哪些内容在法规范围内以及哪些内容不在法规范围内的定义来进入法规的范围。所以那个
定义在某种意义上排除了您可能遇到的第一代,你知道,例如在电子游戏中的人工智能,这并不是真正的人工智能。因此,首先要查看该定义和法规的范围,并了解他们是否在范围内。
这非常广泛。你知道,你可能是无风险的,但由于定义的原因,仍然在范围内。然后第二点,第二步是基本上对人工智能系统进行盘点,因为
很容易想到,好吧,一家公司,一个人工智能系统。通常,人工智能公司拥有多个相互交互、相互依赖或基本上执行不同任务以实现一个目标的系统。因此,对正在使用的AI系统及其预期用途进行盘点将是下一步。
然后第三步将是真正查看高风险的明确列表,因为那里有最多的义务,并检查他们的任何AI系统是否属于这些用例之一。
而且这些,虽然我说的是离散的,但它们并没有离散到解释每一个潜在用例的程度,而是相当离散的类别,具有离散的使用案例,但这可能包含各种潜在的单个应用程序。所以看看那个列表。然后
这是一个基于风险的法规,因此我们试图缩小这些类别,以确保我们不会无意中让公司承担监管义务,如果它们不会对健康、安全和基本权利构成风险的话。因此,即使对于那些属于该类别的人,也有一些豁免。例如,如果人工智能系统是……
用于该特定类别中的准备工作或文字上的小任务,但它并不一定,它不是主要的决定因素。并且可能对此有豁免。
然后最后,在确定后,好吧,我是否属于高风险类别?我假设目前没有人私下构建大规模监控人工智能来歧视联盟的全体人口。所以,你知道,我不会在禁令上花费太多时间。
但是,你知道,根据该系统属于哪个位置,无论是高风险还是,你知道,有限风险。这非常非常清楚。你知道,这是深度伪造,是聊天机器人,是人工智能生成的內容。因此,根据此,然后这很容易转到非常具体的义务。所以,你知道,这是一个决策树,可以准确地确定每个系统属于哪个位置。
然后,当然,同样的逻辑也适用于那些部署这些系统的人,他们会经历这个逻辑并理解,我正在将这个人工智能系统部署到市场上的高风险类别中,那么作为部署者,我的义务是什么?
随着市场越来越发展,尤其是在创业领域等等,正在构建通用模型。对于这些,它也是一个决策树。首先是,我的模型参数是否超过10亿?这就像一个近似于什么构成通用人工智能模型的切入点。如果不是,那么可能没有义务适用。
虽然,当然,总有一些解释,尤其是在那个特定数字周围的灰色地带。
然后如果是这样,继续前进,我的模型是否可能是一个具有系统性风险的模型?这可能适用于未来五大、十大公司将开发的模型。我认为这适用于很多这样的模型。也许你可能有一个小型模型也构成系统性风险,如果它从情报角度来看真的足够好。
确实,确实。我会回到我之前所说的关于其复杂性的内容。我们也预见到了这一点。因此,回想一下,人工智能办公室与市场互动以监督可能构成系统性风险的这些模型。事实上,人工智能办公室根据我们法规中规定的数据和许多参数或条件,拥有某种酌情权来将模型指定为构成系统性风险。
因为即使模型的不同输出也可能对较小的模型构成风险。或者也许,你知道,我在这里进行理论推测,但较小的模型可能不如大型模型好,也可能构成更大的系统性风险。但另一方面,它们会在整个欧洲市场上吗?
因此,通过这种逻辑并了解你的模型适合在哪里,你知道,第一个检查点是参数的数量,这暗示了这是否是一个通用模型。然后在最后,在最前沿,当我们谈到系统性风险时,但这只关系到少数人。
也许你在你提到的决策树中有很多不同的点,对吧?让我们为丹换个位置。你今天领导着一家在欧盟运营的组织的人工智能、IT 或信息安全工作。你会首先关注什么?
所以我在领导它。我正在构建一些东西。我正在构建一个人工智能。假设你是一家大型制药公司或类似的公司,在你的运营中使用人工智能,对吧?就像你会首先关注什么?我认为这与之前的逻辑相同,但我将借此机会谈谈医疗设备和其他受欧洲法律单独监管但又与人工智能交叉的产品。所以我将遵循相同的逻辑,看看我是否根据定义使用了人工智能,看看它是否是高风险的,看看它是否不是。
看看它是否真的是这些用例中的关键组成部分,然后我将遵循那里的规则。或者如果我正在部署它,再次看看部署者的义务是什么。我将借此机会谈谈与嵌入人工智能的其他产品的交叉,因为我们也考虑到了这一点。
在那里,你拥有诸如医疗设备之类的产品,其中包含人工智能,这些产品有两个不同的独立领域。一个,作为独立系统的人工智能以某种方式嵌入到另一个产品中。然后,独立系统的规则适用于我们目前讨论的所有内容。另一方面,如果人工智能作为安全组件成为该产品的一部分,
这也归类为高风险。因此,这里的规则也适用,但是,有一个很大的但是,因为它试图避免让市场承受过多的监管。大多数已经受到监管的产品之所以受到监管,是因为它们可能对健康或安全构成威胁。
因此,它们有自己的规则来防止这种情况。它们有自己的合格性评估。有时,这些合格性评估甚至比人工智能法案中的更严格。因此,我们一直在努力
确保这些措施能够协同工作,它们是互补的,而不是重复某人所承担的责任和义务类型。因此,让我们以医疗设备为例,人工智能法案将在其义务尚未涵盖适用于医疗设备的现有规则的范围内适用。
这意味着大多数规则可能已经被涵盖,因为它们是被预见的。我认为人工智能法案在产品安全法规之外带来了一些东西,那就是基本权利的组成部分。
因此,虽然健康和安全一直是欧洲法规的优先事项,但直到我们处理人工智能之前,技术和基本权利都是一个新出现的问题,因为在你知道线性算法之前,你确切地知道它将输出什么。你不能指望它会歧视。你可以查看代码并确切地了解它的作用。
因此,我确实预计,即使是那些已经受到监管的人,也将承担源自人工智能法案的额外义务,我们已经预见到了这一点,但我们试图尽可能简化流程,以便它不会重复义务,而是确保它们是全面的。
是的,我喜欢不同法规之间根据领域的不同而互补。因为你提到,例如,对于风险有限的系统,像深度伪造这样的东西可能适合在那里。但是,如果你使用深度伪造来诽谤某人或诽谤某人,诽谤法将在这里生效。是的,完全正确。
很好。因此,关于要求,也许最后一个问题,这仍然有点模糊不清。如果你能解释一下组织作为欧盟人工智能法案一部分的人工智能素养要求,这里提供一个无辜的背景,欧盟人工智能法案强调组织需要具备人工智能素养。我很想知道你能解释一下这意味着什么,以及在实践中它可能是什么样子?
当然。因此,我认为该条款是更广泛的条款之一,它超出了我们目前一直在讨论的基于风险的方法。我认为这是一个软性义务。这不是一个硬性义务。对于使用人工智能的组织来说,这是一个尽力而为的义务,以确保操作和部署该人工智能的人员
能够充分了解使用该人工智能系统的影响。
因此,它不太关注理解机器学习,而是具有理解它可能出错、可能做出有偏差的决策、可能歧视以及自然倾向于过度依赖机器输出的素养。所以那种素养。当然,它并不是一个金字塔。
它是一个从零到完全禁止的梯度,对吧?但是应用程序的整个连续体。我会说,你越接近一个灰色区域,……
你的律师会引导你了解法规,并说这对你并不适用。但是,你感觉你非常接近,那么这个要求就越重要,说,好吧,至少要为部署这个人工智能可能带来的任何风险做好准备。
我认为就非常具体而言,委员会将与人工智能委员会一起在不久的将来提供指导。在许多方面,委员会仍然需要提供指导,以使其更加具体。
但是,如果我把它概括成一句话,那就是确保你不会对健康、安全、基本权利构成威胁。你如何做到这一点,方法是培训操作系统的人员,让他们了解可能出错的地方。
即使从技术上讲,并且根据法律条文,你并不属于我们在那里的类别之一。是的,你提到委员会仍在就欧盟人工智能法案的几个要素提供指导,以使其更具体。我认为这与我的下一个问题有关,即欧盟人工智能法案的未来是什么样的,对吧?我们已经涵盖了欧盟人工智能法案目前的含义。
展望未来也很重要。那么,你如何看待欧盟人工智能法案的发展?在监管方面,下一步是什么?我希望你能了解一下时间表,以及你如何看待法规的演变?
我将把它分成两部分。一个是法规的演变,我稍后再谈。第二个是法规中实际存在的内容,即生效。目前,该法规有一个非常分阶段的,我认为是合乎逻辑的生效过程,以便为市场和成员国准备其国家能力等提供时间。
但第一阶段是在未来六个月内,从 8 月 1 日开始,生效后六个月,禁止令适用。这再次非常简单。你不能在欧盟这样做,你不应该这样做。毫无疑问,为什么这必须首先出现。
然后在一年内,以 8 月 1 日为起点,一年内,通用模型和具有系统性风险的通用模型的规则适用。人工智能办公室也需要充分发挥作用,因为正如我所说,这是构建通用模型的人员与办公室的监督任务之间的动态互动。
两年内,所有规则以及基本上法规的大部分内容都适用。因此,所有符合高风险人工智能系统合规性的内容
在两年内适用。然后在三年内,回想一下我们正在讨论重叠的问题,你拥有这些安全组件和已经受到监管的产品,以及解开这些组件并调整合规性要求以适应人工智能法案将需要更多时间。因此,这些将在三年内生效。这就是其中的内容。现在,关于你的问题的另一部分
我会称之为未来发展如何演变。有一些机制,委员会可以通过简化程序(委员会学)进行修改,你不想深入了解这一点,但通过这些机制,委员会被授权根据新的发展改变文本的某些部分。因此,我们授权委员会
根据非常具体的标准修改高风险用例列表。因此,他们可以突然醒来并说,你知道,丹的番茄种植人工智能现在是高风险的。他们必须进行风险检查,以查看这个新类别是否确实属于该列表,但他们可以在那里添加某些类别。
我认为接下来的一年,委员会需要就从法律到非常具体的边缘案例(什么是高风险,什么不是)提供大量非常具体的指导,以阐明定义,阐明文本的许多其他部分。
成员国还需要建立适用人工智能法案并执行规则的机构。所以有一个区别。大多数规则将由成员国执行。因此,所有与高风险系统相关的规则都将在成员国一级执行。因此,成员国需要有一个负责此事的国家监督机构。
然后,当然,正如我们所讨论的,对更强大的人工智能的治理将在欧洲层面进行。我认为仍然有一些移动部件,但我认为法规本身提供了足够的指导,可以理解其发展方向。因此,区别在于,你知道,两家公司之间,一家属于,一家不属于边缘,但是
但即便如此,你知道,遵守这里的许多要求首先是良好的实践。其次,你知道,它让每个人都具有竞争优势,说,即使在全球范围内说,好吧,我的产品符合这项法规。你知道,我很感激这里的教育。我觉得更有能力与我在布鲁塞尔的欧盟圈子朋友讨论欧盟法律。但也许在我们还有你的时候,丹吉,再问几个问题。
我想了解一下创建欧盟人工智能法案的过程。至少可以说,这是一次非常有趣的经历。它已经酝酿多年了,你正在领导这项工作。你正在与成员国、组织、技术提供商和监管机构进行谈判。你能分享一些你在这一过程中遇到的挑战和成功的见解吗?你学到的最大教训是什么?也许是建立历史上最大的技术立法之一。所以是的,我很想在这里了解一下。
好吧,我有一个很长的答案,但我也许会花一分钟时间解释一下这是如何产生的,因为我认为分享一些挑战也很有用。在欧洲层面,欧盟委员会,想象一下它就像欧盟的政府。不要直接引用我说的话,因为两者之间存在区别。
但欧盟委员会是提出法规的机构。然而,要签署该法规,实际上是议会和理事会,它们基本上是共同立法者。欧盟委员会提出法规。它提交给议会和理事会。然后议会和理事会,议会是由成员国直接民主选举并派往欧洲议会的代表。
理事会是成员国作为成员国直接代表的地方。议会与理事会分开,内部协商它希望对某项法规进行的更改。理事会也这样做。所以现在你有三个版本:最初提出的一个,议会的一个,理事会的一个。
完成此过程后,三个机构会面,共同立法者(即议会和理事会)试图就最终文本达成协议。当然,委员会充当诚实的中间人,当然,这是一个非常有既得利益的诚实的中间人,因为他们首先提出了这项法规。
由于政治影响力、知名度和影响力,这是一场非常、非常具有挑战性的谈判,我认为,政治色彩非常浓厚。
而且也很重要,在议会中,有超过我认为 30 名议员参与了这项谈判。在理事会中,你花的时间更长。我不会谈论轮值主席国,但理事会立场在最终确定之前也改变了几次。然后整个谈判过程是……
我会说,很复杂,但以一种好的方式,因为生成式人工智能的出现,这在最初的提案中并没有预见,并且需要提出一些,正如我所说,灵活的规则
也适用于这些。议会在这里,你知道,我们非常自豪地带头,我们实际上制定了有意义且具有未来性的规则。我们将它们加入其中并进行了协商。这就是这个过程。我认为就挑战而言,首先是政治,处理远程生物识别在公共场所的使用等非常敏感的话题,你在左翼和右翼都有非常强烈的政治意识形态
关于这项技术应该如何或不应该使用和部署。关于定义,你知道,它确实决定了法规的范围以及法规在国际上的兼容性。所以我们做了很多工作
与经合组织等组织合作,他们已经对人工智能进行了定义,以协调我们的定义以及他们的定义。因此,最终,你知道,我们在定义方面非常接近。还与我们的合作伙伴(例如美国)合作,他们在国家标准与技术研究院(NIST)中使用了相当类似的定义,
所以这是政治上定义我们正在谈论什么的一个重要部分。然后是关于版权的整个讨论,因为版权在欧盟法律的不同部分进行处理。但另一方面,我们也需要在这份文件中做一些事情。我们达成了一项我认为公平的妥协方案,即增加一些透明度要求,即
透明度是一项义务。但是,它不会改变你的成本,但它会改变你在违反版权法或不违反版权法的激励措施。因为如果你更透明,那么你也可以对你的版权材料的使用方式提出质疑。所以我想
从不同的角度进行谈判。一个在议会中,你有非常意识形态化的观点。在理事会中,你拥有真正考虑其成员国竞争力的成员国。委员会试图跟上并接受对其最初提案的更新是一项相当大的挑战。但这很有趣。这是一次非常好的经历。
非常好的经历,非常具有挑战性,但我认为我们最终制定了一项非常好的立法。你可以从它开始在世界各地被复制的事实中看出这一点,我相信随着越来越多的具有不同监管传统的国家发生变化,它将在世界各地产生巨大的影响。
我们将研究,好吧,人工智能的规则是什么?我们有一套相当好的起始规则,我认为这些规则是有意义的。你可以防止人工智能风险的方式只有这么多。你对人工智能进行分类的方式也只有这么多。这是有风险的还是没有风险的?我的意思是,最终,你知道,你不想过度监管并监管我的番茄人工智能。但你不想离开外面,你知道,那些……
它已经并将继续对全球产生巨大影响。我认为在这种情况下,果汁绝对值得挤压。没错。是的,是的。丹和基拉,很高兴你们来到 DataFramed。非常感谢你们的加入。谢谢。