公众号
当前位置:栏目>最新>文章详情

欧盟通过了《AI法案》,然后呢?

来源:汽车商业评论(马晓蕾)23年12月19日 13:30

撰文 / 马晓蕾
编辑 / 黄大路
设计 / 赵浩然
来源 / The verge,路透社 作者:Emilia David

欧盟三大机构——欧洲议会、欧盟成员国和欧盟委员会——在经历了36个小时的“马拉松式”谈判后,于布鲁塞尔当地时间12月8日晚,就《人工智能法案》达成协议。

这一法案将成为全球首部人工智能领域的全面监管法规。欧盟内部市场专员蒂埃里·布雷东(Thierry Breton)坦言:“这份协议将有助于欧洲在全球人工智能竞赛中领跑。”

然而,围绕欧盟《人工智能法案》的谈判变得越来越漫长、越来越复杂。

据外媒的最新报道,在12月15日,欧盟各国政府举行的协议汇报会上,德国、法国、意大利和波兰坚称在最终文本准备好之前他们不会签署该协议。

虽然12月8日达成的政治协议确认该法规将生效,但最终文本要到2月初才会公布,而且该法规的某些内容可能要到2027年才会生效。

不过,欧盟委员会表示,对某些人工智能系统的禁令将在法律通过后的6个月内生效,如基于特征分析、定位或过去的犯罪行为的“预测性警务”系统;而基础模型的监管将在12个月后生效,包括透明度报告和风险评估。

在法律生效之前,鼓励企业自愿签署人工智能协议,履行一些关键义务。不遵守该法律的公司可能会受到高达全球营业额7%或3500万欧元的处罚(取最高的)。

不同的声音

具有里程碑意义的人工智能监管可以帮助欧盟禁止AI的某些用途,并要求提供商提高透明度。但一些国家领导人和行业专家发出警告,人工智能公司需要做出的改变仍不清楚,而且可能还很遥远。

纽约大学斯特恩商业与人权中心副主任保罗·贝莱特(Paul Barrett)表示:“从短期来看,欧盟人工智能法案的妥协不会对美国的老牌人工智能设计师产生太大的直接影响。”因此,就目前而言,OpenAI、微软、谷歌和Meta等主要人工智能厂商可能会继续争夺主导地位,特别是在美国监管不确定的情况下。

这一协议的达成“来之不易”。

《人工智能法案》于2021年首次提出,欧盟三大机构拟过多个草案。据了解,此前三方谈判的核心分歧是基础模型的监管方式。

据媒体报道,三方谈判在10月24日本已就分级监管模型达成了初步共识,但包括德、法、意在内的至少五个成员国改变立场,即将最终落地之时,欧盟内部出现了不同声音。

《人工智能法案》在OpenAI的GPT-4大语言模型等通用人工智能(GPAI)工具爆发之前就已启动,对此类技术的监管成为最后一刻讨论中的一个症结所在。该法案根据人工智能系统对社会的风险程度划分了层级,正如欧盟在一份声明中所说,“风险越高,规则就越严格。”

法国、意大利和德国曾在10月份提出对欧洲人工智能初创公司的豁免,德国联邦政府公布了一份由德国、法国和意大利三国达成的关于人工智能监管的联合文件。该文件总体上支持对人工智能进行必要的监管,但强调相关法规应该只用于规范人工智能的应用,而非技术本身。

德国数字化和交通部部长福尔克·维辛(Volker Wissing)对此表示,“如果我们想在全球顶级人工智能竞赛中有所作为,就需要规范人工智能的应用,而不是技术。”

一些成员国越来越担心,这种严格性可能会使欧盟成为一个对人工智能缺乏吸引力的市场。法国、德国和意大利都在谈判期间游说减少对GPAI的限制。

经过激烈争论,协议弱化了一些最严格的监管,包括限制可被视为“高风险”的系统,只有被划归为“高风险”的系统才会受到最严格的规则的约束。不会将所有 GPAI 归类为高风险,而是会采用两层系统和执法例外。

这仍然没有让所有批评者满意。法国总统马克龙(Emmanuel Macron)对这些规则进行了攻击,称《人工智能法案》创造了一个严格的监管环境,阻碍了创新。

贝莱特表示,一些新的欧洲人工智能公司可能会发现,在现行规则下,筹集资金有点困难,这把优势拱手让给了美国,欧洲以外的公司甚至可能选择避开该地区。这也是欧洲在非人工智能技术行业遵循法规时面临的潜在风险。

一种立场

《人工智能法案》回避了一些围绕生成人工智能最具争议的问题。例如,基于公开数据训练的人工智能模型已成为各组织争论的一大焦点,这些数据可能受版权保护,且可能是敏感数据。然而,该法案并未就数据收集制定新的法律。

尽管欧盟率先通过《通用数据保护条例》(General Data Protection Regulation,GDPR)制定了数据保护法,但其人工智能法规并不禁止公司收集信息,只是要求公司遵循GDPR准则。

“根据规定,公司可能必须提供透明度摘要或数据营养标签,”数字贸易和数据治理中心主任、乔治华盛顿大学国际事务研究教授苏珊·阿里尔·阿伦森 (Susan Ariel Aaronson) 表示,“但这并不会真正改变公司围绕数据的行为。”

阿伦森指出,《人工智能法案》仍未明确公司应如何处理模型训练数据中受版权保护的材料,只是指出开发人员应遵循现有的版权法(这在人工智能周围留下了许多灰色地带)。因此,它没有激励人工智能模型开发人员避免使用受版权保护的数据。

该法案也不会对开源开发者、研究人员和价值链下游的小公司实施可能的严厉罚款——这一决定受到了该领域开源开发者的称赞。

GitHub首席法务官雪莱·麦金利(Shelley McKinley)表示,这是开放式创新,致力于帮助解决一些社会最紧迫问题的开发人员的积极发展。”(GitHub是一个开源开发中心,是微软的子公司。)

观察人士认为,该法案目前能产生的最大影响可能是迫使其他政治人物,特别是美国决策者加快行动。这并不是人工智能的第一个主要监管框架,今年7月,中国通过了针对人工智能服务提供商的指导方针。虽然《人工智能法案》可能仍会发生变化,但阿伦森表示,这至少表明欧盟已经倾听并回应了公众对该技术的担忧。

贝克·麦坚时(Baker McKenzie)律师事务所数据隐私和信息技术合伙人洛萨·德特曼(Lothar Determann)表示,它建立在现有数据法规的基础上,这一事实也可能鼓励政府评估他们已经制定的法规。数据隐私平台OneTrust首席战略官布莱克·布兰农(Blake Brannon)表示,更成熟的人工智能公司会根据GDPR等法律制定隐私保护准则,并期待更严格的政策。他表示,根据公司的不同,《人工智能法案》是对现有战略的“补充”。

相比之下,美国尽管拥有Meta、亚马逊、Adobe、谷歌、Nvidia和OpenAI等主要参与者,但在人工智能监管方面基本上未能落地。迄今为止,其最大的举措是拜登政府发布行政命令,指示政府机构制定安全标准,并以大型人工智能企业签署的自愿、不具约束力的协议为基础。

参议院提出的少数法案主要围绕深度伪造(Deepfake,如AI换脸),而参议员查克·舒默(Chuck Schumer,纽约州民主党)举办的闭门人工智能论坛几乎没有明确说明政府在管理该技术方面的方向。

现在,政策制定者可以参考欧盟的做法并从中汲取经验。这并不意味着美国将采取同样冒险的方法,但它可能会寻求扩大数据透明度规则或允许GPAI模型更加宽松。

美国AI监管平台公司Credo AI创始人、国家人工智能咨询委员会成员纳夫里娜·辛格(Navrina Singh)认为,虽然《人工智能法案》对于人工智能治理来说是一个重要时刻,但事情不会迅速改变,未来仍有大量工作要做。

辛格在一份声明中称:“美国和欧洲的监管机构的重点应该是协助各种规模的组织安全设计、开发和部署人工智能,既透明又负责。”她补充说,仍然缺乏标准和基准测试流程,特别是在透明度方面。

尽管《人工智能法案》尚未最终确定,但大多数欧盟国家承认这是他们想要走的方向。该法案不会追溯性地监管现有模型或App,但OpenAI的GPT、Meta的Llama或谷歌的Gemini的未来版本将需要考虑欧盟设定的透明度要求。《人工智能法案》可能不会在一夜之间产生巨大的影响,但它表明了欧盟在人工智能方面的立场。