随着人工智能技术的飞速发展,全球对AI的监管也日益严格。当地时间5月29日,欧盟宣布成立人工智能办公室,对人工智能进行监管,该办公室人员主要由技术专家、律师和经济学家等组成。欧盟表示,该办公室的成立将在《人工智能法案》的实施中发挥关键作用。
3 月,欧盟委员会在其网站上发布的一份声明中写道:“欧洲人工智能办公室将支持值得信赖的人工智能的开发和使用,同时防范人工智能风险。欧洲人工智能办公室将成为整个欧盟人工智能专业知识的中心。它将在实施人工智能法案(特别是通用人工智能)方面发挥关键作用,促进可信赖人工智能的开发和使用以及国际合作。”
并不神秘的人工智能办公室
1月24日,欧盟委员会公布了成立欧洲人工智能办公室(AI Office)的决定。欧盟委员会特别指出,人工智能办公室应在委员会内设立,作为通信网络、人工智能内容和技术总局行政架构的一部分,并强调人工智能办公室不得影响国家主管当局以及欧盟各团体、办公室和机构在监督人工智能系统方面的权力和权限。此外,欧盟旨在确保欧盟成为人工智能治理的全球参考点,能够在国际层面将欧洲方法纳入人工智能的主流。
根据欧盟统计局的数据,去年只有8%拥有10名以上员工的欧洲公司使用人工智能,特别是在丹麦、芬兰和卢森堡。这些公司使用人工智能来运行简单的任务,例如自动化工作流程或协助决策。未来几年,欧洲人工智能生态系统的规模将扩大,该办公室将为其创新、竞争和尊重欧盟规则和价值观的方向提供方向。
欧盟委员会执行副总裁Margrethe Vestager表示,该办公室将“帮助确保《人工智能法案》的一致实施。该办公室将与开发人员和科学界一起评估和测试通用人工智能,以确保人工智能为人类服务,并维护我们的欧洲价值观。”近几个月来,该委员一直试图确定办公室的领导权及其任务。
目前可以确定的是,人工智能办公室是委员会内处理人工智能的现有单位的重组,将由五个主要部门组成,每个部门由一名负责监督《人工智能法案》实施的主任领导。这些部门将专注于监管和评估机器人、人工智能方面的创新发展并关注对社会利益可能产生的潜在影响。此外,还将有两名科学方法和国际事务的顾问。
现任欧盟委员会人工智能和数字行业总监Lucilla Sioli将正式领导人工智能办公室。欧盟委员会指出,大约140名专家将在人工智能办公室工作,但到目前为止,只有60名工作人员从同一机构的其他单位中挑选出来。
该办公室将于6月16日开始运作,将很快提出关于通用人工智能的规则,并将发布关于人工智能系统和禁令的指导方针,这些指导方针将于今年年底生效。
一些立法者对人工智能办公室的设置持否定态度:“今天,公众看到了一个没有远见的结构,只是涉及对现有委员会单位进行小规模重组,”欧洲议会议员Svenja Hahn写道。
《人工智能法案》也将成文
人工智能办公室要倾力维护的,是欧盟委员会2021年提出的《人工智能法案》。
该法旨在保护基本权利、民主、法治和环境可持续性免受高风险人工智能的侵害,同时促进创新并确立欧洲在该领域的领导者地位。该法案从应用程序禁止范围、生物识别系统使用权限、高风险系统分级与规范及透明度等多方面对人工智能进行规范。同时规定将在国家层面建立监管沙箱和真实世界测试,并让中小企业和初创企业能够使用。
去年12月,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议。
此后,包括法国、德国在内的一些国家对法案文本表达异议,担忧法案对先进人工智能模型的严格监管将阻碍欧洲人工智能的发展。为了解决这些担忧,欧盟委员会在人工智能领域推出多项支持创新的措施,建立新的监管机构“人工智能办公室”负责该法案的实施。
今年2月初,欧盟27国代表投票一致支持《人工智能法案》草案,标志欧盟向立法监管人工智能迈出重要一步。当地时间3月13日,欧洲议会审议通过了《人工智能法案》。
在经过多轮谈判和协商后,本月21日,欧盟理事会正式批准《人工智能法案》,这是世界上首部对人工智能进行全面监管的法案。据了解,该法律将于6月底生效,与通用人工智能模型相关的某些规则将从2025年起适用。
欧盟内部市场委员蒂埃里·布雷东在社交媒体上发文说,27国一致支持这一法案,说明它们认可“谈判者在创新与安全之间找到了完美平衡”。
欧盟的努力正值人们对人工智能的日益担忧之际,包括美国和英国在内的许多政府都依赖自愿的业务守则来保护新兴的行业。
这些包括微软和OpenAI等公司签署的布莱奇利宣言(the Bletchley Declaration),其中公司同意在向市场发布其人工智能算法之前遵守一套安全实践,如模型评估。这些公司在韩国举行的人工智能首尔峰会上签署了类似的自愿承诺,其措施包括要求公司制定阈值,以防止滥用人工智能系统,并审查人工智能治理框架等。
与两个自愿声明非常相似,人工智能办公室将专注于开发值得信赖的人工智能,对模型进行现实世界测试,并提供对人工智能沙盒的访问等措施。
批评者说,一个关键的局限性模型评估是,算法是在孤岛中测试的,而不是在其更广泛的应用背景下测试的,这限制了记录的结果。
尽管《人工智能法案》要求通用人工智能和其他高风险人工智能系统采取合规措施,如模型评估、系统风险评估和缓解以及安全事件报告,但人工智能隐私组织表示,法律中的漏洞允许人工智能公司将自己归类为“低风险”,这允许他们绕过安全评估。
艾达·洛夫莱斯研究所(the Ada Lovelace Institute)的研究人员表示,与公众或监管机构相比,目前的评估实践更适合公司的利益。在大型科技公司中,商业激励措施导致他们优先评估性能和构成声誉风险的安全问题,而不是可能产生更重大社会影响的安全问题。
发表评论