🇪🇺 Регламент ЕС по ИИ
Первое в мире всеобъемлющее регулирование искусственного интеллекта
Обзор
Регламент ЕС по ИИ — это всеобъемлющая нормативная база, принятая Европейским Союзом для обеспечения безопасности, прозрачности, отслеживаемости, недискриминационности и экологичности разработки и использования систем искусственного интеллекта.
Статус: Принят в марте 2024 года, вступает в силу поэтапно до 2026-2027 годов.
Сфера применения: Применяется ко всем системам ИИ, размещенным на рынке ЕС или затрагивающим граждан ЕС, независимо от местонахождения провайдера.
Подход на основе рисков
Регламент ЕС по ИИ классифицирует системы ИИ на четыре категории риска с требованиями, пропорциональными уровню создаваемого риска.
🚫 Неприемлемый риск (Запрещены)
Системы ИИ, представляющие явную угрозу безопасности, средствам к существованию и правам
- Социальный рейтинг государственными органами
- Биометрическая идентификация в режиме реального времени в общественных местах
- Манипулирование поведением (сублиминальные техники)
- Эксплуатация уязвимостей
⚠️ Высокий риск
Системы ИИ со значительным влиянием на здоровье, безопасность или основные права
- Управление критической инфраструктурой
- Образование и профессиональное обучение
- Трудоустройство и управление работниками
- Правоохранительные органы
- Миграция и пограничный контроль
- Правосудие и демократические процессы
⚡ Ограниченный риск (Обязательства по прозрачности)
Системы ИИ, требующие прозрачности для принятия обоснованных решений
- Чат-боты и разговорный ИИ
- Системы распознавания эмоций
- Биометрическая категоризация
- Контент, созданный ИИ (дипфейки)
✅ Минимальный риск
Большинство приложений ИИ с добровольными кодексами поведения
- Видеоигры с ИИ
- Спам-фильтры
- Рекомендательные системы (некритические)
- Большинство бизнес-приложений
Требования к системам ИИ высокого риска
- 📋 Управление рисками: Создание и поддержка системы управления рисками на протяжении всего жизненного цикла системы ИИ
- 📊 Управление данными: Обеспечение соответствия наборов данных для обучения, валидации и тестирования критериям качества
- 📝 Техническая документация: Подготовка полной технической документации перед выпуском на рынок
- 🔍 Прозрачность: Проектирование систем с достаточной прозрачностью и предоставление пользователям соответствующей информации
- 👥 Человеческий надзор: Обеспечение эффективного человеческого надзора для предотвращения или минимизации рисков
- 🔒 Точность и надежность: Достижение надлежащих уровней точности, надежности и кибербезопасности
- ✓ Оценка соответствия: Прохождение оценки соответствия перед выпуском на рынок
- 📌 Регистрация: Регистрация в базе данных ЕС для систем ИИ высокого риска
Штрафы и исполнение
Регламент ЕС по ИИ устанавливает значительные штрафы за несоблюдение, рассчитываемые как большее из:
35 млн €
или 7% глобального оборота
Запрещенные системы ИИ
15 млн €
или 3% глобального оборота
Другие нарушения
7,5 млн €
или 1,5% глобального оборота
Некорректная информация
График внедрения
Окончательный текст согласован Парламентом и Советом ЕС
Регламент вступает в силу (через 20 дней после публикации в Официальном журнале)
Вступает в силу запрет на запрещенные практики ИИ (через 6 месяцев после вступления в силу)
Применяются правила управления и обязательства для ИИ общего назначения (12 месяцев)
Полное применение требований к системам ИИ высокого риска (24 месяца)
Требования к ИИ высокого риска в регулируемых продуктах (36 месяцев)
Ключевые выводы
- ✓ Первое в мире всеобъемлющее горизонтальное регулирование ИИ
- ✓ Подход на основе рисков с пропорциональными требованиями
- ✓ Экстерриториальное действие, затрагивающее глобальных провайдеров ИИ
- ✓ Значительные штрафы за несоблюдение
- ✓ Положения, способствующие инновациям (песочницы, поддержка МСП)
- ✓ Поэтапное внедрение до 2027 года
Последнее обновление: