🇪🇺 EU AI規制法
世界初の包括的なAI規制
概要
EU AI規制法は、人工知能システムの開発と使用が安全で、透明性があり、追跡可能で、 非差別的で、環境に優しいものであることを保証するために欧州連合が採択した包括的な規制枠組みです。
ステータス:2024年3月に採択され、2026-2027年まで段階的に施行されます。
適用範囲:プロバイダーの所在地に関係なく、EU市場に投入されるすべてのAIシステム、 またはEU市民に影響を与えるすべてのAIシステムに適用されます。
リスクベースのアプローチ
EU AI規制法は、AIシステムを4つのリスクカテゴリに分類し、 リスクレベルに比例した要件を設定しています。
🚫 受け入れがたいリスク(禁止)
安全性、生計、権利に明確な脅威をもたらすAIシステム
- 政府による社会的スコアリング
- 公共の場でのリアルタイム生体認証
- 行動操作(サブリミナル技術)
- 脆弱性の悪用
⚠️ 高リスク
健康、安全、基本的権利に重大な影響を与えるAIシステム
- 重要インフラの管理
- 教育と職業訓練
- 雇用と労働者管理
- 法執行
- 移民と国境管理
- 司法と民主的プロセス
⚡ 限定的リスク(透明性義務)
情報に基づいた意思決定を可能にするために透明性が必要なAIシステム
- チャットボットと会話型AI
- 感情認識システム
- 生体認証による分類
- AI生成コンテンツ(ディープフェイク)
✅ 最小限のリスク
自主的な行動規範を持つほとんどのAIアプリケーション
- AI対応ビデオゲーム
- スパムフィルター
- 推奨システム(非クリティカル)
- ほとんどのビジネスアプリケーション
高リスクAIシステムの要件
- 📋 リスク管理:AIシステムのライフサイクル全体を通じてリスク管理システムを確立および維持する
- 📊 データガバナンス:トレーニング、検証、テストデータセットが品質基準を満たしていることを確認する
- 📝 技術文書:市場投入前に包括的な技術文書を準備する
- 🔍 透明性:十分に透明なシステムを設計し、ユーザーに適切な情報を提供する
- 👥 人間による監視:リスクを防止または最小限に抑えるための効果的な人間による監視を可能にする
- 🔒 正確性と堅牢性:適切なレベルの正確性、堅牢性、サイバーセキュリティを達成する
- ✓ 適合性評価:市場投入前に適合性評価を受ける
- 📌 登録:高リスクAIシステムのEUデータベースに登録する
罰則と執行
EU AI規制法は、不遵守に対して重大な罰則を設定しており、次のうち高い方で計算されます:
3500万ユーロ
または世界売上高の7%
禁止されたAIシステム
1500万ユーロ
または世界売上高の3%
その他の違反
750万ユーロ
または世界売上高の1.5%
不正確な情報
実施スケジュール
2024年2月
EU議会と理事会により最終テキストが合意される
2024年5月
規制が発効(官報公開後20日)
2024年11月
禁止されたAI慣行の禁止が発効(発効後6か月)
2025年5月
汎用AIのガバナンスルールと義務が適用される(12か月)
2026年5月
高リスクAIシステムの要件が完全に適用される(24か月)
2027年5月
規制製品における高リスクAIの要件(36か月)
重要なポイント
- ✓ 世界初の包括的な横断的AI規制
- ✓ リスクベースのアプローチで比例した要件
- ✓ グローバルなAIプロバイダーに影響を与える域外適用範囲
- ✓ 不遵守に対する重大な罰則
- ✓ イノベーション支援規定(サンドボックス、中小企業支援)
- ✓ 2027年までの段階的実施
最終更新: