🇪🇺 ЄС AI Act
Перша у світі всеосяжна регуляція штучного інтелекту
Огляд
ЄС AI Act — це всеосяжна нормативна база, прийнята Європейським Союзом для забезпечення того, щоб розробка та використання систем штучного інтелекту були безпечними, прозорими, відстежуваними, недискримінаційними та екологічно дружніми.
Статус: Прийнято в березні 2024 року, набуває чинності поетапно протягом 2026-2027 років.
Сфера дії: Застосовується до всіх систем AI, розміщених на ринку ЄС або що впливають на громадян ЄС, незалежно від того, де знаходиться постачальник.
Підхід на основі ризиків
ЄС AI Act класифікує системи AI на чотири категорії ризику, з вимогами, пропорційними рівню ризику.
🚫 Неприйнятний ризик (Заборонено)
Системи AI, що становлять явну загрозу для безпеки, засобів існування та прав
- Соціальне оцінювання урядами
- Біометрична ідентифікація в реальному часі в громадських місцях
- Маніпулювання поведінкою (підсвідомі методи)
- Експлуатація вразливостей
⚠️ Високий ризик
Системи AI зі значним впливом на здоров'я, безпеку або фундаментальні права
- Управління критичною інфраструктурою
- Освіта та професійне навчання
- Зайнятість та управління працівниками
- Правоохоронна діяльність
- Міграція та прикордонний контроль
- Правосуддя та демократичні процеси
⚡ Обмежений ризик (Зобов'язання щодо прозорості)
Системи AI, що вимагають прозорості для прийняття обґрунтованих рішень
- Чат-боти та розмовний AI
- Системи розпізнавання емоцій
- Біометрична категоризація
- Контент, створений AI (дипфейки)
✅ Мінімальний ризик
Більшість застосувань AI з добровільними кодексами поведінки
- Відеоігри з AI
- Спам-фільтри
- Системи рекомендацій (некритичні)
- Більшість бізнес-додатків
Вимоги до систем AI високого ризику
- 📋 Управління ризиками: Створення та підтримка системи управління ризиками протягом життєвого циклу системи AI
- 📊 Управління даними: Забезпечення відповідності наборів даних для навчання, валідації та тестування критеріям якості
- 📝 Технічна документація: Підготовка всебічної технічної документації перед розміщенням на ринку
- 🔍 Прозорість: Проектування систем з достатньою прозорістю та наданням користувачам відповідної інформації
- 👥 Людський нагляд: Забезпечення ефективного людського нагляду для запобігання або мінімізації ризиків
- 🔒 Точність та надійність: Досягнення відповідних рівнів точності, надійності та кібербезпеки
- ✓ Оцінка відповідності: Проходження оцінки відповідності перед розміщенням на ринку
- 📌 Реєстрація: Реєстрація в базі даних ЄС для систем AI високого ризику
Штрафи та правозастосування
ЄС AI Act встановлює значні штрафи за недотримання, розраховані як вище з:
€35M
або 7% глобального обороту
Заборонені системи AI
€15M
або 3% глобального обороту
Інші порушення
€7.5M
або 1.5% глобального обороту
Некоректна інформація
Графік впровадження
Остаточний текст узгоджено Парламентом та Радою ЄС
Регламент набуває чинності (через 20 днів після публікації в Офіційному журналі)
Заборона на заборонені практики AI набуває чинності (через 6 місяців)
Правила управління та зобов'язання для AI загального призначення застосовуються (12 місяців)
Вимоги до систем AI високого ризику повністю застосовуються (24 місяці)
Вимоги до AI високого ризику в регульованих продуктах (36 місяців)
Ключові моменти
- ✓ Перша у світі всеосяжна горизонтальна регуляція AI
- ✓ Підхід на основі ризиків з пропорційними вимогами
- ✓ Екстериторіальна сфера дії, що впливає на глобальних постачальників AI
- ✓ Значні штрафи за недотримання
- ✓ Положення, сприятливі для інновацій (пісочниці, підтримка МСП)
- ✓ Поетапне впровадження до 2027 року
Останнє оновлення: