欧盟去年五月通过了规范人工智能(AI)应用的《人工智能法》,采分阶段实施,其中一部分规定自本月开始生效,预计整部法律将于2027年8月正式生效。根据欧盟的说法,新法规的目的不仅是保护消费者权益,也希望能确保用户负责任地使用人工智能。 自本周日(2月2日)起,开发或使用人工智能的公司必须评估其系统的风险水平,并采取适当措施满足法律要求。用于高风险领域的人工智能系统必须满足各种标准,包括透明度、准确性、网络安全和训练数据质量。 禁止以AI进行社会分类 新规要求此类系统在进入欧盟市场必须获得监管机构的认证批准,系统提供商也必须保留某些技术文档以供审计。欧盟的“人工智能办公室”将监督整个欧盟区的执法工作。 其他规定还包括:禁止使用人工智能程序评估社会行为,即不可借着人工智能技术对人们进行分类评比,并以此进行奖励或惩罚。 保留例外情况 另外,原则上也不允许通过公共场所监控录像进行人脸识别。但也有例外:应允许警察和其他安全机构使用这种技术作为某些罪行的调查手段,如人口贩卖和恐怖主义等。除此之外,人工智能生成的内容,包含图像、声音或文本等也必须进行标记,以防止误导性深度伪造材料。 人工智能法原则上不允许通过公共场所监控录像进行人脸识别图像来源: STR/AFP/Getty Images 根据《人工智能法》规定,将人工智能系统用于特定禁止用途的最高罚款为3500万欧元,或公司年收入的7%。而向监管机构提供不正确信息的最高罚款可达公司年收入1.5%。 欧盟表示,采用人工智能系统具有“带来社会效益、经济增长和增强欧盟创新和全球竞争力的巨大潜力”;但同时也会产生“与用户安全(包括人身安全和基本权利)相关的新风险”。欧盟警告,目前广泛使用的某些强大人工智能模型“甚至可能带来系统性风险”。 行业代表担心机密外泄 不过,总部位于华盛顿的智库“欧洲政策分析中心”(CEPA)周五发布的一篇文章写道,欧盟的《人工智能法》进展没有想像中顺利。文章提到,人工智能办公室正在起草一份业务守则,其中概述了合规的实用指南。然而一些利益相关者认为,保留给他们提供反馈的时间过于紧迫。 此外,部分行业代表也质疑:人工智能开发者是否真有必要向第三方评估者开放他们的模型。业务守则中还规范,开发者需要提供有关其训练数据的详细信息,包括数据是否合法获取。作者拉格克兰茨(Oona Lagercrantz)指出,这让一些公司担心商业机密可能受到威胁,而且欧盟对合法获取数据的定义也存在争议。 |
联系电话:647-830-8888|多伦多六六网 www.66.ca
GMT-5, 2025-2-2 02:51 PM , Processed in 0.044439 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.