arqmetrica
Dimensão 04 · arqmetrica AI Maturity Index

Governação e ética

O quadro de risco, a preparação para o AI Act da UE, os processos de supervisão de modelos e os limites éticos em vigor.

Pondera 17% da pontuação global

O que perguntamos

As quatro perguntas desta dimensão, com as quatro opções ordinais e a pontuação fixa de cada uma. Texto idêntico ao que verá na avaliação.

GOV-01

1. Já classificou os seus casos de uso de IA face às categorias de risco do EU AI Act?

Categorias: proibido, alto risco, risco limitado (obrigações de transparência), mínimo. A classificação é uma exigência regulamentar a partir de agosto de 2026 para sistemas de alto risco.

OpçãoRespostaPontuação
a
Todos os usos de IA inventariados e classificados; revistos trimestralmente
100
b
Sistemas principais classificados; ferramentas de cauda longa ainda não
67
c
Conscientes das categorias; classificação ainda por fazer
33
d
Não familiarizados com o quadro de risco do EU AI Act
0
GOV-02

2. Os seus sistemas de IA divulgam aos utilizadores quando estes estão a interagir com IA?

O Artigo 50 do EU AI Act exige-o para chatbots, geração de conteúdo e interações similares a partir de agosto de 2026.

OpçãoRespostaPontuação
a
Sim — divulgação clara e persistente em todas as interações com IA
100
b
Divulgada nos sistemas principais; ferramentas menores inconsistentes
67
c
Discutido; ainda não implementado
33
d
Sem qualquer divulgação
0
GOV-03

3. Como são registadas as decisões dos modelos de IA para efeitos de auditoria?

Para sistemas de IA de alto risco no âmbito do EU AI Act, o registo automático de eventos é obrigatório (Artigo 12). Mesmo fora do alto risco, as trilhas de auditoria são uma boa prática.

OpçãoRespostaPontuação
a
Registo automático com política de retenção e armazenamento à prova de adulteração
100
b
Registado em sistemas críticos; ad hoc nos restantes
67
c
Algum registo, sem política de retenção ou de auditoria
33
d
Sem registo das decisões dos modelos
0
GOV-04

4. Existe um processo documentado para contestar ou anular uma decisão tomada por IA?

Para decisões com impacto sobre pessoas (emprego, crédito, acesso a serviços), exige-se a presença de supervisão humana com autoridade explícita de anulação.

OpçãoRespostaPontuação
a
Processo de anulação documentado com responsável nomeado, SLA e registo de auditoria
100
b
A anulação é possível, mas não está formalmente documentada
67
c
Em teoria sim; nunca testado
33
d
Sem mecanismo de anulação
0

Pronto para ver a sua pontuação completa?

Faça a avaliação completa para ver a sua pontuação nas seis dimensões, o seu benchmark face a pares e as três acções com maior alavancagem.

Fazer a avaliação

Dimensões