🇪🇺 Lei de IA da UE
O primeiro regulamento abrangente de IA do mundo
Visão geral
A Lei de IA da UE é um quadro regulatório abrangente adotado pela União Europeia para garantir que o desenvolvimento e uso de sistemas de inteligência artificial sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos.
Status: Adotada em março de 2024, entrando em vigor em etapas até 2026-2027.
Âmbito: Aplica-se a todos os sistemas de IA colocados no mercado da UE ou que afetem cidadãos da UE, independentemente de onde o fornecedor esteja localizado.
Abordagem baseada em risco
A Lei de IA da UE classifica os sistemas de IA em quatro categorias de risco, com requisitos proporcionais ao nível de risco apresentado.
🚫 Risco inaceitável (Proibido)
Sistemas de IA que representam uma ameaça clara à segurança, meios de subsistência e direitos
- Pontuação social por governos
- Identificação biométrica em tempo real em espaços públicos
- Manipulação de comportamento (técnicas subliminares)
- Exploração de vulnerabilidades
⚠️ Alto risco
Sistemas de IA com impacto significativo na saúde, segurança ou direitos fundamentais
- Gestão de infraestruturas críticas
- Educação e formação profissional
- Emprego e gestão de trabalhadores
- Aplicação da lei
- Migração e controle de fronteiras
- Justiça e processos democráticos
⚡ Risco limitado (Obrigações de transparência)
Sistemas de IA que exigem transparência para permitir decisões informadas
- Chatbots e IA conversacional
- Sistemas de reconhecimento de emoções
- Categorização biométrica
- Conteúdo gerado por IA (deepfakes)
✅ Risco mínimo
Maioria das aplicações de IA com códigos de conduta voluntários
- Jogos de vídeo com IA
- Filtros de spam
- Sistemas de recomendação (não críticos)
- Maioria das aplicações empresariais
Requisitos para sistemas de IA de alto risco
- 📋 Gestão de riscos: Estabelecer e manter um sistema de gestão de riscos ao longo do ciclo de vida do sistema de IA
- 📊 Governança de dados: Garantir que os conjuntos de dados de treino, validação e teste atendam aos critérios de qualidade
- 📝 Documentação técnica: Preparar documentação técnica abrangente antes da colocação no mercado
- 🔍 Transparência: Projetar sistemas suficientemente transparentes e fornecer informações apropriadas aos usuários
- 👥 Supervisão humana: Permitir supervisão humana eficaz para prevenir ou minimizar riscos
- 🔒 Precisão e robustez: Alcançar níveis apropriados de precisão, robustez e cibersegurança
- ✓ Avaliação de conformidade: Submeter-se à avaliação de conformidade antes da colocação no mercado
- 📌 Registo: Registar-se na base de dados da UE para sistemas de IA de alto risco
Penalidades e aplicação
A Lei de IA da UE estabelece penalidades significativas para não conformidade, calculadas como o maior de:
€35M
ou 7% do volume de negócios global
Sistemas de IA proibidos
€15M
ou 3% do volume de negócios global
Outras violações
€7,5M
ou 1,5% do volume de negócios global
Informações incorretas
Cronograma de implementação
Texto final acordado pelo Parlamento e Conselho da UE
Regulamento entra em vigor (20 dias após publicação no Jornal Oficial)
A proibição de práticas de IA proibidas entra em vigor (6 meses após entrada em vigor)
Regras de governança e obrigações para IA de propósito geral aplicam-se (12 meses)
Requisitos para sistemas de IA de alto risco totalmente aplicáveis (24 meses)
Requisitos para IA de alto risco em produtos regulamentados (36 meses)
Conclusões principais
- ✓ Primeiro regulamento horizontal abrangente de IA do mundo
- ✓ Abordagem baseada em risco com requisitos proporcionais
- ✓ Âmbito extraterritorial afetando fornecedores globais de IA
- ✓ Penalidades significativas por não conformidade
- ✓ Disposições favoráveis à inovação (sandboxes, apoio a PME)
- ✓ Implementação faseada até 2027
Última atualização: