Governação e ética
O quadro de risco, a preparação para o AI Act da UE, os processos de supervisão de modelos e os limites éticos em vigor.
O que perguntamos
As quatro perguntas desta dimensão, com as quatro opções ordinais e a pontuação fixa de cada uma. Texto idêntico ao que verá na avaliação.
1. Já classificou os seus casos de uso de IA face às categorias de risco do EU AI Act?
Categorias: proibido, alto risco, risco limitado (obrigações de transparência), mínimo. A classificação é uma exigência regulamentar a partir de agosto de 2026 para sistemas de alto risco.
| Opção | Resposta | Pontuação |
|---|---|---|
| a | Todos os usos de IA inventariados e classificados; revistos trimestralmente | 100 |
| b | Sistemas principais classificados; ferramentas de cauda longa ainda não | 67 |
| c | Conscientes das categorias; classificação ainda por fazer | 33 |
| d | Não familiarizados com o quadro de risco do EU AI Act | 0 |
2. Os seus sistemas de IA divulgam aos utilizadores quando estes estão a interagir com IA?
O Artigo 50 do EU AI Act exige-o para chatbots, geração de conteúdo e interações similares a partir de agosto de 2026.
| Opção | Resposta | Pontuação |
|---|---|---|
| a | Sim — divulgação clara e persistente em todas as interações com IA | 100 |
| b | Divulgada nos sistemas principais; ferramentas menores inconsistentes | 67 |
| c | Discutido; ainda não implementado | 33 |
| d | Sem qualquer divulgação | 0 |
3. Como são registadas as decisões dos modelos de IA para efeitos de auditoria?
Para sistemas de IA de alto risco no âmbito do EU AI Act, o registo automático de eventos é obrigatório (Artigo 12). Mesmo fora do alto risco, as trilhas de auditoria são uma boa prática.
| Opção | Resposta | Pontuação |
|---|---|---|
| a | Registo automático com política de retenção e armazenamento à prova de adulteração | 100 |
| b | Registado em sistemas críticos; ad hoc nos restantes | 67 |
| c | Algum registo, sem política de retenção ou de auditoria | 33 |
| d | Sem registo das decisões dos modelos | 0 |
4. Existe um processo documentado para contestar ou anular uma decisão tomada por IA?
Para decisões com impacto sobre pessoas (emprego, crédito, acesso a serviços), exige-se a presença de supervisão humana com autoridade explícita de anulação.
| Opção | Resposta | Pontuação |
|---|---|---|
| a | Processo de anulação documentado com responsável nomeado, SLA e registo de auditoria | 100 |
| b | A anulação é possível, mas não está formalmente documentada | 67 |
| c | Em teoria sim; nunca testado | 33 |
| d | Sem mecanismo de anulação | 0 |
Pronto para ver a sua pontuação completa?
Faça a avaliação completa para ver a sua pontuação nas seis dimensões, o seu benchmark face a pares e as três acções com maior alavancagem.
Fazer a avaliação →