🇺🇸 Регулирование ИИ в США
Федеральные и штатные подходы к управлению ИИ
Регуляторный ландшафт
В отличие от комплексного Акта ЕС об ИИ, Соединенные Штаты применяют более фрагментированный, отраслевой подход к регулированию ИИ. Федеральные исполнительные указы устанавливают общие принципы, в то время как отдельные штаты разрабатывают собственные законы об ИИ.
Подход: Мягкое регулирование, добровольные рамки, отраслевые правила и инновации на уровне штатов.
Федеральная структура
Исполнительный указ 14110 (октябрь 2023)
Исполнительный указ президента Байдена о "Безопасном, защищенном и надежном искусственном интеллекте" устанавливает новые стандарты для безопасности ИИ.
Ключевые положения:
- 🔒 Тестирование безопасности: Компании, разрабатывающие базовые модели, должны делиться результатами тестов безопасности с правительством перед публичным релизом
- 🏷️ Аутентификация контента: Водяные знаки и маркировка контента, созданного ИИ
- 🛡️ Критическая инфраструктура: Усиленные стандарты кибербезопасности для систем ИИ в критической инфраструктуре
- ⚖️ Гражданские права: Защита от алгоритмической дискриминации в таких областях, как жилье, трудоустройство и уголовное правосудие
- 🔬 Исследования и разработка: Ускорение R&D в области ИИ для общественного блага
- 👷 Рабочая сила: Поддержка работников, затронутых автоматизацией ИИ
Другие федеральные инициативы
- NIST AI Risk Management Framework (2023): Добровольная система управления рисками ИИ в различных секторах
- Билль о правах в области ИИ (2022): План для создания и использования систем ИИ, защищающих гражданские права и демократические ценности
- Меморандум OMB об ИИ (2024): Руководство для федеральных агентств по приобретению и использованию ИИ
- Руководство FTC по ИИ: Принудительные меры против обманчивых заявлений об ИИ и дискриминационных алгоритмов
Регулирование на уровне штатов
Отдельные штаты возглавляют регулирование ИИ в конкретных областях, создавая лоскутное одеяло из требований.
🌴 Калифорния
Самый активный штат в регулировании ИИ
- AB 2013 (2024): Раскрытие контента, созданного ИИ, в политической рекламе
- SB 1047 (предложен): Требования безопасности для передовых моделей ИИ
- CPRA: Права автоматизированного принятия решений в законе о конфиденциальности
- AB 331: Раскрытие использования ИИ при принятии решений о найме
🗽 Нью-Йорк
Фокус на трудоустройстве и дискриминации
- Местный закон 144 (2023): Аудиты на предвзятость для автоматизированных инструментов найма в Нью-Йорке
- Предложенное законодательство: Требования прозрачности и подотчетности ИИ
- Образовательный сектор: Руководства по использованию ИИ в школах
🌲 Колорадо
Фокус на защите прав потребителей
- SB 24-205 (2024): Требования алгоритмической дискриминации ИИ
- Оценка воздействия: Обязательна для систем ИИ высокого риска
- Права потребителей: Право отказаться от решений на основе ИИ
🦞 Вермонт
Прозрачность брокеров данных
- H.410 (2024): Раскрытие использования ИИ брокерами данных
- Автоматическое профилирование: Требования уведомления потребителей
🌵 Юта
Подход регуляторной песочницы
- Закон об ИИ политике (2024): Требования раскрытия для генеративного ИИ
- Дипфейки: Криминализация вредного дипфейк-контента
- Инновационная песочница: Тестовая среда для компаний ИИ
🌸 Виргиния
Защита потребительских данных
- Поправки VCDPA: Права отказа от автоматизированного принятия решений
- Ограничения профилирования: Ограничения на определенную автоматическую обработку
Отраслевое регулирование
Здравоохранение (FDA, HHS)
Медицинские устройства на основе ИИ/МО регулируются как программное обеспечение как медицинское устройство (SaMD)
Финансовые услуги (SEC, CFPB, Fed)
Надзор за алгоритмической торговлей, соблюдение справедливого кредитования, управление модельными рисками
Транспорт (NHTSA, FAA)
Стандарты безопасности автономных транспортных средств, сертификация авиационных систем ИИ
Занятость (EEOC)
Борьба с дискриминацией для инструментов ИИ в найме и управлении
Защита потребителей (FTC)
Обманчивые заявления об ИИ, алгоритмическая дискриминация, требования безопасности данных
Саморегулирование отрасли
Крупные компании ИИ взяли на себя обязательства по добровольным мерам безопасности через обещания Белого дома (июль 2023):
Обязательства по безопасности
- • Внутреннее и внешнее тестирование безопасности перед релизом
- • Обмен информацией о рисках ИИ
- • Инвестиции в кибербезопасность и защиту от внутренних угроз
Меры прозрачности
- • Водяные знаки на контенте, созданном ИИ
- • Публичная отчетность о возможностях и ограничениях ИИ
- • Механизмы раскрытия уязвимостей
Ключевые различия с подходом ЕС
Акт ЕС об ИИ
- ✓ Комплексное горизонтальное регулирование
- ✓ Обязательные требования на основе рисков
- ✓ Значительные штрафы (до 7% оборота)
- ✓ Оценка соответствия до выхода на рынок
- ✓ Централизованное правоприменение
Подход США
- ✓ Отраслевые и штатные правила
- ✓ Добровольные рамки и руководства
- ✓ Существующие законы, применяемые к ИИ (Закон FTC и т.д.)
- ✓ Фокус на правоприменении после выхода на рынок
- ✓ Децентрализованный (федеральный + 50 штатов)
Последнее обновление: