财新传媒 财新传媒

阅读:0
听报道

GBAITA 数字经济研究中心

总监:车品觉     专家作者:高璇颖

 

随着ChatGPT在全球范围内的爆火,在引发众多科技公司对大模型和基于模型应用布局的同时,数据安全和监管也受到国际社会的广泛关注。回顾欧洲相关监管法案推进历程,经过2年的时间酝酿,于当地时间6月14日,欧盟议会以499票赞成、28票反对通过了《人工智能法案》,接下来欧盟成员国、欧盟委员会和欧洲议会将启动谈判,预计该法案将有望在今年年底前达成共识。
 

一、历时两年,欧盟《人工智能法案》成为全球首部人工智能法规

早在2021年4月21日,欧盟发布《人工智能法案》,旨在对人工智能所涉及到的产品和服务制定监管规则。在为期2年的沿革历程中,欧洲议会和欧盟理事会针对提案开展了多轮修订和讨论。

2021 年 11 月 29 日,欧盟理事会轮值主席发布人工智能法案草案的第一份妥协文本,其中在社会评分、生物识别系统和高风险应用领域进行了重大修改。

2022 年 3 月 2 日,欧洲议会法律事务委员会 (JURI) 发布了对《人工智能法案》的修正案。随后,欧洲议会工业研究和能源委员会(ITRE)发布了关于《人工智能法案》的意见草案。

2022 年 5 月 13 日,法国理事会主席国提议监管通用人工智能系统,例如旨在理解图像和语音、生成音频和视频、检测模式、回答问题和翻译文本等能执行通用任务的人工智能系统。

2022 年 9 月 5 日,欧洲议会法律事务委员会 (JURI)作为议会最后一个委员会通过了对《人工智能法案》的意见。

2022 年 9 月 28 日,欧盟委员会提议有针对性地协调人工智能国家责任规则,旨在通过促进损害民事责任索赔来补充《人工智能法案》。

2022年12月6日,欧盟理事会通过了关于法案的共同立场,并相继增加了关于通用人工智能、基础模型相关条款。

2023年4月27日,欧洲议会成员在委员会投票前,对基础模型的言论自由原则及版权问题达成相关修提案。

《人工智能法案》的通过,意味着该法案将成为全球首部人工智能的法规,可以看出欧盟在人工智能监管上走在国际前列。

         
 

二、《法案》中风险分类分级监管、对大语言模型数据审查和沙盒技术的应用值得我们关注

1.依据风险等级,对人工智能系统进行分类分级监管,并通过更严格的罚款条款,带来企业更高昂的违法成本,意味着法案具备更强的约束力

该法案将人工智能系统的风险分为四个级别,分别是最小风险、有限风险、高风险和不可接受风险。本次修订中,特别强调了禁止生物识别技术的使用,这一规定在本次的最新草案中,由“高风险”调整为“不可接受风险”,这也就意味着禁止欧盟国家禁止在公共场合采用实时人脸识别技术,但可以允许通过授权后,应用在严重犯罪的调查和执法中。

针对“高风险”的人工智能应用系统,一方面,涵盖领域扩展至对健康、安全、政治竞选、基本权利造成重大风险的场景;另一方面,对数据质量、透明度和准确性提出更高的要求,尤其是考虑到了对弱势群体的负面影响,通过适当的人为监督来减少模型带来的歧视性结果。

法案也在强制性方面提出了更为严格的要求。对违反法案的公司,极端情况将被处以3000万欧元或公司全球收入6%的罚款。高昂的罚款也意味着更高的违法成本,可预计在未来法案落地实施中,将带来更强的约束力。

2.针对大语言模型,实行更严格的数据审查

除对传统人工智能常见问题的规定,本次法案的通过,还与时俱进地增加了涵盖ChatGPT等生成式人工智能基础模型的条款。在数据的获取上,需确保用于训练模型的数据是受版权保护的,并保证内容创作者知道他们的内容会用于大模型的训练。对于人工智能生成的内容,需向受众披露该内容是由人工智能生成的。

3.在严格监管的同时,也通过监管沙盒机制鼓励持续创新

《人工智能法案》在出台严格的监管规则的同时,也在兼顾产业创新。例如,引入监管沙盒机制,鼓励中小企业和初创企业进入沙盒测试,测试通过可投入市场,这无异于是为中小企业给予了更多的合规背书,在控制风险的同时,也鼓励人工智能企业的持续创新。   

 

三、欧洲在人工智能立法上更为审慎严格,美国采取鼓励拥抱的弱监管态度,我国坚持发展与监管并重

从法案条款我们可以看出,欧洲对生成式人工智能的发展持有相对谨慎的态度,其法案的核心是避免生成式AI的过快发展造成社会风险和对社会秩序的影响。当然,由于在条款内容中,对人工智能相对宽泛的监管界定,引发了法案制定过程中的争议,担心是否会造成过度监管而抑制技术的进步和创新。同时,相对宽泛的监管范围虽然试图以最全面的范围保证安全,但在未来执行层面,如何确保监管条款的落实,以及实际操作中或将面临的大量解释问题,也将成为未来法案落地执行的难点。

这种基调也与欧洲在全球人工智能发展格局中所扮演的角色有关。相比而言,美国在生成式人工智能的探索上,也走在前列。因此在监管态度上,美国对生成式人工智能的态度更多是鼓励和拥抱的姿态。近年来,美国政府也相继发布将人工智能提升到国家战略层面的报告,例如2016年,美国白宫发布《为人工智能的未来做好准备》、《国家人工智能研究与发展战略计划》、《人工智能、自动化与经济》等报告。此外,在2023年1月,美国国家标准与技术研究院发布《人工智能风险管理框架》,对开发和部署人工智能系统降低风险、提高人工智能可信度等方面做出指导,但该框架仅停留在非强制性的建议层面。

欧洲则更多是作为监管的角色,提出相对体系化、完整的监管框架,且相比美国、英国等倡导性、建议性的政策规范,欧洲法案体现出强监管的态势。从在过去的几年中,欧洲先后颁布了《人工智能白皮书》、《欧洲通用数据保护条例》GDPR、《数字服务法案》、《数字市场法案》以及《数据治理法案》等也可以看出,欧盟对数据和技术领域建立全球标准的目标和决心。

面对欧洲的严格监管型策略,以及美国的鼓励倡导型政策,我国坚持发展与监管并重。2023年4月,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能的服务内容提出了要求,并强调个人信息安全和数据隐私保护,同时也提出了明确的违规处罚条款,视情节严重程度处以警告、通报批评、罚款及追究刑事责任等。与欧洲《人工智能法案》中对人工智能系统风险更加细化的分类分级和监管措施不同的是,我国的条款中对人工智能场景的相对广泛;此外,在监管沙盒的探索上,我国除在金融科技领域的探索外,也可借鉴欧洲《人工智能法案》,在人工智能领域的沙盒试点,推动人工智能创新和有序发展。

         

四、伴随生成式人工智能加速发展,沙盒技术或将推动监管规范与持续创新

从目前全球范围内人工智能的监管来看,目前的监管侧重主要是以内容安全合规、隐私保护、知识产权保护等为主,且相比于生成式AI的高速发展,立法层面的监管仍相对滞后,尚未完全落地应用。

随着生成式人工智能的发展,我们认为,未来监管层面将进一步着眼于内容合规性的审查,保证人工智能应用的使用者,尤其是未成年人、弱势群体的合法权益;将对数据合规和网络安全问题将被持续关注,同时加强知识产权保护,针对训练模型的数据来源做出更细化的要求。在人工智能立法政策时,要根据在生成式人工智能的发展态势,明确立法监管态度,例如是采取欧美的强监管,还是美国的弱监管,以此为依据,做好创新和规范的平衡。

监管规范与持续创新一直是新技术发展的双刃剑,沙盒技术将成为平衡规范性与创新性的工具。目前由于生成式人工智能还处在高速发展阶段,在立法层面保证合规的同时,也要为未来产业发展留有空间,为技术发展提供创新的沃土。在此前提下,人工智能沙盒技术通过提供一个允许人工智能系统在投放市场前进行开发、测试和验证的空间,是一种在监管规范下,合理、有序、有质量推进AI创新的工具,既可以促进技术创新与业务发展,为新兴技术提供更灵活的监管环境。

 

【更多国内外数字经济干货,请关注数字经济研究发展中心微信公众号“数字经济全球观察”

 
话题:



0

推荐

数字经济发展研究中心

数字经济发展研究中心

8篇文章 70天前更新

数字经济发展研究中心总干事:车品觉(太平绅士、红杉资本中国基金会专家合伙人、香港特区政府数字经济发展委员会委员);专家组:唐诚、Sherry Gao、Kevin Tang

文章
  • 个人分类
全部文章 8篇
  • 文章归档
2023年 8篇