欧盟《人工智能法案》立法过程及实施机制

2 个月前 观点 408


欧盟在2024年6月签署的《人工智能法案》(AI Act),这是全球首个具有约束力的AI水平监管法规。

AI法案背景:欧盟立法者在2024年6月签署了《人工智能法案》,旨在为欧盟境内使用和供应AI系统设立一个共同框架。

AI法案的主要目标:该法案通过对AI系统进行分类,采用基于风险的方法,设定不同的要求和义务,以确保AI系统的安全和合规性。

AI法案的实施时间表:该法案于2024年7月12日在欧盟官方期刊上发布,并于2024年8月生效。

AI法案的关键内容:

AI系统的分类和监管:根据风险等级,AI系统被分为四类:不可接受风险、高风险、有限风险和低风险系统。高风险系统需遵守一系列要求和义务,而低风险系统则不受进一步约束。

高风险AI系统的具体要求:高风险AI系统必须符合风险管理、测试、技术稳健性、数据训练和数据治理、透明度、人类监督和网络安全等方面的要求。

通用人工智能(GPAI)模型的特别规定:GPAI模型需遵守透明度要求,并在具备系统性风险时进行风险评估和缓解。

禁止的AI实践:包括使用操纵性或欺骗性技术、针对脆弱群体的AI系统、用于社会评分的AI系统等。

立法过程:

提案和初步讨论:欧盟委员会提出了该法案的提案,并经过多次讨论和修订。议会和理事会的谈判:议会和理事会经过多轮谈判,最终在2023年12月达成临时协议。

最终文本的确定:该法案于2024年3月由议会通过,2024年5月由理事会通过,并于2024年6月正式签署。

实施和执行:

执行机构和监督机制:各成员国需设立至少一个市场监督机构,负责监督该法案的实施。欧盟层面也将设立多个支持机构。

合规措施和处罚:对不合规的实体将处以高额罚款,具体金额根据违规行为的严重程度而定。

沙盒机制和现实测试:各成员国需设立至少一个AI监管沙盒,以促进创新AI系统的开发和测试。

最新政策辩论:

学术界的反馈:一些学者认为该法案在某些方面需要改进,如对AI系统的定义、责任分配和执行机制等。

国际协调与合作:确保AI治理的国际协调,特别是与美国的合作,被视为关键。

未来立法方向:讨论了在其他领域(如工作场所的AI、生成式AI的竞争、能源可持续性等)进行立法的可能性。

以上就是欧盟议会《人工智能法案》的背景、主要内容、立法过程及实施机制,并讨论了相关的政策辩论和未来方向。

相关资讯