🇪🇺 欧盟人工智能法案
世界上第一个综合性人工智能监管法规
概述
欧盟人工智能法案是欧盟通过的综合性监管框架,旨在确保人工智能系统的开发和使用 安全、透明、可追溯、无歧视且环保。
状态:2024年3月通过,分阶段生效至2026-2027年。
适用范围:适用于所有在欧盟市场上投放或影响欧盟公民的人工智能系统, 无论提供商位于何处。
基于风险的方法
欧盟人工智能法案将人工智能系统分为四个风险类别,要求与风险水平成正比。
🚫 不可接受风险(禁止)
对安全、生计和权利构成明显威胁的人工智能系统
- 政府社会评分
- 公共场所实时生物识别
- 行为操纵(潜意识技术)
- 利用脆弱性
⚠️ 高风险
对健康、安全或基本权利有重大影响的人工智能系统
- 关键基础设施管理
- 教育和职业培训
- 就业和员工管理
- 执法
- 移民和边境管制
- 司法和民主程序
⚡ 有限风险(透明度义务)
需要透明度以允许做出明智决策的人工智能系统
- 聊天机器人和对话式人工智能
- 情绪识别系统
- 生物识别分类
- 人工智能生成内容(深度伪造)
✅ 最小风险
大多数带有自愿行为准则的人工智能应用
- 支持人工智能的电子游戏
- 垃圾邮件过滤器
- 推荐系统(非关键)
- 大多数商业应用
高风险人工智能系统的要求
- 📋 风险管理:在人工智能系统的整个生命周期中建立和维护风险管理系统
- 📊 数据治理:确保训练、验证和测试数据集符合质量标准
- 📝 技术文档:在市场投放前准备全面的技术文档
- 🔍 透明度:设计足够透明的系统并向用户提供适当的信息
- 👥 人工监督:实现有效的人工监督以防止或最小化风险
- 🔒 准确性和鲁棒性:达到适当的准确性、鲁棒性和网络安全水平
- ✓ 合规性评估:在市场投放前进行合规性评估
- 📌 注册:在欧盟高风险人工智能系统数据库中注册
处罚和执行
欧盟人工智能法案为违规行为设定了重大处罚,计算方式为以下两者中的较高者:
3500万欧元
或全球营业额的7%
禁止的人工智能系统
1500万欧元
或全球营业额的3%
其他违规行为
750万欧元
或全球营业额的1.5%
信息不正确
实施时间表
2024年2月
欧盟议会和理事会同意最终文本
2024年5月
法规生效(在官方公报发布后20天)
2024年11月
禁止的人工智能做法禁令生效(生效后6个月)
2025年5月
通用人工智能的治理规则和义务适用(12个月)
2026年5月
高风险人工智能系统要求完全适用(24个月)
2027年5月
受监管产品中高风险人工智能的要求(36个月)
关键要点
- ✓ 世界上第一个综合性横向人工智能监管法规
- ✓ 基于风险的方法,要求成比例
- ✓ 域外适用范围影响全球人工智能提供商
- ✓ 违规将受到重大处罚
- ✓ 有利于创新的规定(沙盒、中小企业支持)
- ✓ 分阶段实施至2027年
最后更新: