欧盟人工智能法案的立法理念主要包括以下几个方面:
1. 风险分级管理:对不同风险程度的人工智能应用进行分类监管。
2. 强调高风险项目的“备案”“评估”“透明”等原则。
3. 全面禁止人工智能用于某些特定领域,如生物识别监控、情绪识别、预测性警务。
4. 要求生成式人工智能系统如 ChatGPT 披露内容是人工智能生成的。
5. 认为用于在被认为高风险的选举中影响选民的人工智能系统需特别监管。
6. 旨在促进以人为本、值得信赖的人工智能的应用,并保护健康、安全、基本权利和民主免受其有害影响。
7. 确保欧洲开发和使用的人工智能完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。
2021 年 4 月发布的《人工智能法案(提案)》引入了风险分级监管、市场准入制度、监管沙盒等制度,以应对突出的算法黑箱问题,确保投放到欧盟市场的人工智能系统及其使用的安全性。近年来,欧盟针对数据治理发布的一系列法案,与即将正式出台的《人工智能法案》共同构成欧盟数据战略框架下的重要监管规则,从底层逻辑入手加强数据的安全保护,促进欧洲数据流动,防范算法自动化决策的潜在风险,建立相关伦理价值标准,保障个人权利,构建监管与创新发展的平衡机制。
2024-12-31