🇪🇺 Lei de IA da UE

O primeiro regulamento abrangente de IA do mundo

Visão geral

A Lei de IA da UE é um quadro regulatório abrangente adotado pela União Europeia para garantir que o desenvolvimento e uso de sistemas de inteligência artificial sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos.

Status: Adotada em março de 2024, entrando em vigor em etapas até 2026-2027.

Âmbito: Aplica-se a todos os sistemas de IA colocados no mercado da UE ou que afetem cidadãos da UE, independentemente de onde o fornecedor esteja localizado.

Abordagem baseada em risco

A Lei de IA da UE classifica os sistemas de IA em quatro categorias de risco, com requisitos proporcionais ao nível de risco apresentado.

🚫 Risco inaceitável (Proibido)

Sistemas de IA que representam uma ameaça clara à segurança, meios de subsistência e direitos

  • Pontuação social por governos
  • Identificação biométrica em tempo real em espaços públicos
  • Manipulação de comportamento (técnicas subliminares)
  • Exploração de vulnerabilidades

⚠️ Alto risco

Sistemas de IA com impacto significativo na saúde, segurança ou direitos fundamentais

  • Gestão de infraestruturas críticas
  • Educação e formação profissional
  • Emprego e gestão de trabalhadores
  • Aplicação da lei
  • Migração e controle de fronteiras
  • Justiça e processos democráticos

⚡ Risco limitado (Obrigações de transparência)

Sistemas de IA que exigem transparência para permitir decisões informadas

  • Chatbots e IA conversacional
  • Sistemas de reconhecimento de emoções
  • Categorização biométrica
  • Conteúdo gerado por IA (deepfakes)

✅ Risco mínimo

Maioria das aplicações de IA com códigos de conduta voluntários

  • Jogos de vídeo com IA
  • Filtros de spam
  • Sistemas de recomendação (não críticos)
  • Maioria das aplicações empresariais

Requisitos para sistemas de IA de alto risco

  • 📋
    Gestão de riscos: Estabelecer e manter um sistema de gestão de riscos ao longo do ciclo de vida do sistema de IA
  • 📊
    Governança de dados: Garantir que os conjuntos de dados de treino, validação e teste atendam aos critérios de qualidade
  • 📝
    Documentação técnica: Preparar documentação técnica abrangente antes da colocação no mercado
  • 🔍
    Transparência: Projetar sistemas suficientemente transparentes e fornecer informações apropriadas aos usuários
  • 👥
    Supervisão humana: Permitir supervisão humana eficaz para prevenir ou minimizar riscos
  • 🔒
    Precisão e robustez: Alcançar níveis apropriados de precisão, robustez e cibersegurança
  • Avaliação de conformidade: Submeter-se à avaliação de conformidade antes da colocação no mercado
  • 📌
    Registo: Registar-se na base de dados da UE para sistemas de IA de alto risco

Penalidades e aplicação

A Lei de IA da UE estabelece penalidades significativas para não conformidade, calculadas como o maior de:

€35M

ou 7% do volume de negócios global

Sistemas de IA proibidos

€15M

ou 3% do volume de negócios global

Outras violações

€7,5M

ou 1,5% do volume de negócios global

Informações incorretas

Cronograma de implementação

Fev 2024

Texto final acordado pelo Parlamento e Conselho da UE

Maio 2024

Regulamento entra em vigor (20 dias após publicação no Jornal Oficial)

Nov 2024

A proibição de práticas de IA proibidas entra em vigor (6 meses após entrada em vigor)

Maio 2025

Regras de governança e obrigações para IA de propósito geral aplicam-se (12 meses)

Maio 2026

Requisitos para sistemas de IA de alto risco totalmente aplicáveis (24 meses)

Maio 2027

Requisitos para IA de alto risco em produtos regulamentados (36 meses)

Conclusões principais

  • ✓ Primeiro regulamento horizontal abrangente de IA do mundo
  • ✓ Abordagem baseada em risco com requisitos proporcionais
  • ✓ Âmbito extraterritorial afetando fornecedores globais de IA
  • ✓ Penalidades significativas por não conformidade
  • ✓ Disposições favoráveis à inovação (sandboxes, apoio a PME)
  • ✓ Implementação faseada até 2027

Última atualização: