🇪🇺 ЄС AI Act

Перша у світі всеосяжна регуляція штучного інтелекту

Огляд

ЄС AI Act — це всеосяжна нормативна база, прийнята Європейським Союзом для забезпечення того, щоб розробка та використання систем штучного інтелекту були безпечними, прозорими, відстежуваними, недискримінаційними та екологічно дружніми.

Статус: Прийнято в березні 2024 року, набуває чинності поетапно протягом 2026-2027 років.

Сфера дії: Застосовується до всіх систем AI, розміщених на ринку ЄС або що впливають на громадян ЄС, незалежно від того, де знаходиться постачальник.

Підхід на основі ризиків

ЄС AI Act класифікує системи AI на чотири категорії ризику, з вимогами, пропорційними рівню ризику.

🚫 Неприйнятний ризик (Заборонено)

Системи AI, що становлять явну загрозу для безпеки, засобів існування та прав

  • Соціальне оцінювання урядами
  • Біометрична ідентифікація в реальному часі в громадських місцях
  • Маніпулювання поведінкою (підсвідомі методи)
  • Експлуатація вразливостей

⚠️ Високий ризик

Системи AI зі значним впливом на здоров'я, безпеку або фундаментальні права

  • Управління критичною інфраструктурою
  • Освіта та професійне навчання
  • Зайнятість та управління працівниками
  • Правоохоронна діяльність
  • Міграція та прикордонний контроль
  • Правосуддя та демократичні процеси

⚡ Обмежений ризик (Зобов'язання щодо прозорості)

Системи AI, що вимагають прозорості для прийняття обґрунтованих рішень

  • Чат-боти та розмовний AI
  • Системи розпізнавання емоцій
  • Біометрична категоризація
  • Контент, створений AI (дипфейки)

✅ Мінімальний ризик

Більшість застосувань AI з добровільними кодексами поведінки

  • Відеоігри з AI
  • Спам-фільтри
  • Системи рекомендацій (некритичні)
  • Більшість бізнес-додатків

Вимоги до систем AI високого ризику

  • 📋
    Управління ризиками: Створення та підтримка системи управління ризиками протягом життєвого циклу системи AI
  • 📊
    Управління даними: Забезпечення відповідності наборів даних для навчання, валідації та тестування критеріям якості
  • 📝
    Технічна документація: Підготовка всебічної технічної документації перед розміщенням на ринку
  • 🔍
    Прозорість: Проектування систем з достатньою прозорістю та наданням користувачам відповідної інформації
  • 👥
    Людський нагляд: Забезпечення ефективного людського нагляду для запобігання або мінімізації ризиків
  • 🔒
    Точність та надійність: Досягнення відповідних рівнів точності, надійності та кібербезпеки
  • Оцінка відповідності: Проходження оцінки відповідності перед розміщенням на ринку
  • 📌
    Реєстрація: Реєстрація в базі даних ЄС для систем AI високого ризику

Штрафи та правозастосування

ЄС AI Act встановлює значні штрафи за недотримання, розраховані як вище з:

€35M

або 7% глобального обороту

Заборонені системи AI

€15M

або 3% глобального обороту

Інші порушення

€7.5M

або 1.5% глобального обороту

Некоректна інформація

Графік впровадження

Лютий 2024

Остаточний текст узгоджено Парламентом та Радою ЄС

Травень 2024

Регламент набуває чинності (через 20 днів після публікації в Офіційному журналі)

Листопад 2024

Заборона на заборонені практики AI набуває чинності (через 6 місяців)

Травень 2025

Правила управління та зобов'язання для AI загального призначення застосовуються (12 місяців)

Травень 2026

Вимоги до систем AI високого ризику повністю застосовуються (24 місяці)

Травень 2027

Вимоги до AI високого ризику в регульованих продуктах (36 місяців)

Ключові моменти

  • ✓ Перша у світі всеосяжна горизонтальна регуляція AI
  • ✓ Підхід на основі ризиків з пропорційними вимогами
  • ✓ Екстериторіальна сфера дії, що впливає на глобальних постачальників AI
  • ✓ Значні штрафи за недотримання
  • ✓ Положення, сприятливі для інновацій (пісочниці, підтримка МСП)
  • ✓ Поетапне впровадження до 2027 року

Останнє оновлення: