arqmetrica
Glossário

Glossário de IA em linguagem clara.

50 termos com que qualquer líder mid-market europeu se cruza. Definições simples, porque é que cada um importa, e como cada um se relaciona com o arqmetrica AI Maturity Index.

53 / 53

Agente de IA

Um sistema de IA que consegue planear e executar tarefas com vários passos de forma autónoma, usando ferramentas (APIs, código, navegação web) para tomar acções no mundo em vez de apenas produzir texto.

Porque é que importa.Os agentes movem a IA do conselho para a acção. Também elevam as exigências de supervisão, trilhos de auditoria e reversibilidade, porque os seus erros têm consequências reais.

Dimensão relacionada:Ferramentas e infraestrutura

AI Act

Regulamento da UE (Regulamento (UE) 2024/1689) que estabelece regras baseadas no risco para sistemas de IA colocados no mercado europeu. É a primeira lei horizontal e abrangente de IA em qualquer grande jurisdição.

Porque é que importa.As obrigações para sistemas de risco elevado tornam-se aplicáveis a partir de Agosto de 2026 — qualquer empresa europeia mid-market que ofereça produtos ou serviços com IA a clientes na UE está abrangida.

Dimensão relacionada:Governação e ética

AI pilot purgatory

O estado em que pilotos de IA produzem demos mas nunca chegam a produção. Sintomas: cada trimestre começa com novos pilotos e termina sem resultados de negócio mensuráveis.

Porque é que importa.A investigação MIT Sloan/BCG 2024 revela que a empresa europeia mid-market mediana só leva 22% dos pilotos a produção — o resto fica retido.

Dimensão relacionada:ROI e medição

AIPD (Avaliação de Impacto sobre a Protecção de Dados)

Uma avaliação de risco estruturada exigida pelo Artigo 35.º do RGPD antes de tratar dados pessoais de formas que possam resultar em risco elevado para os titulares — incluindo a maioria dos casos de uso de IA.

Porque é que importa.Uma AIPD é o documento que a CNPD pedirá em primeiro lugar. Sem AIPD, não tem defesa quando uma queixa chegar.

Dimensão relacionada:Fundações de dados

Alucinação

Quando um modelo de linguagem produz uma saída fluente, confiante e plausível — mas factualmente errada. Por vezes designada por confabulação.

Porque é que importa.A alucinação é o risco de IA que aparece nas manchetes para qualquer implementação que toque clientes, reguladores ou contabilistas. A mitigação (grounding, citações, revisão humana) é uma escolha de desenho, não algo a tratar depois.

Auditoria de enviesamento

Um teste estruturado a um sistema de IA para detectar se as suas saídas diferem sistematicamente entre grupos protegidos — por exemplo, por género, idade, etnia ou nacionalidade.

Porque é que importa.Exigida para sistemas de IA de risco elevado pelo AI Act, e cada vez mais pedida pelos departamentos de compras das grandes empresas. A maioria dos modelos de fornecedores nunca a fez.

Dimensão relacionada:Fundações de dados

Avaliação de conformidade do AI Act

A avaliação prévia à colocação no mercado que demonstra que um sistema de IA de risco elevado cumpre os requisitos do AI Act sobre qualidade dos dados, documentação, transparência, supervisão humana, robustez e cibersegurança.

Porque é que importa.Nenhum sistema de IA de risco elevado pode ser vendido ou usado na UE sem uma avaliação aprovada e marcação CE — análogo ao regime de segurança dos dispositivos médicos.

Dimensão relacionada:Governação e ética

Base de dados vectorial

Uma base de dados optimizada para armazenar e pesquisar embeddings de alta dimensão — as representações numéricas de texto, imagens ou outros conteúdos com que os modelos de IA trabalham.

Porque é que importa.As bases de dados vectoriais são a camada de armazenamento por trás de quase todas as aplicações com retrieval (RAG). A escolha condiciona escala, custo e residência na UE.

Dimensão relacionada:Ferramentas e infraestrutura

CAIO fraccionário

Um executivo sénior de IA contratado em part-time — tipicamente dois a quatro dias por mês — em vez de em regime de full-time. Comum em empresas mid-market que precisam de liderança executiva em IA sem um salário de 250k.

Porque é que importa.Para a maioria das empresas mid-market europeias a carga de trabalho em IA ainda não justifica um CAIO a tempo inteiro — mas a ausência de um é o estrangulamento.

Dimensão relacionada:Estratégia e visão

Centro de excelência em IA

Uma pequena equipa central que define padrões de IA, é dona da infra-estrutura partilhada, constrói padrões reutilizáveis e apoia as unidades de negócio na entrega de projectos de IA — sem ser dona de cada projecto.

Porque é que importa.Um centro de excelência funcional é a diferença entre cada unidade de negócio reinventar a roda e a empresa capitalizar aprendizagem ao longo dos projectos.

Dimensão relacionada:Pessoas e capacidades

Chief AI Officer (CAIO)

O executivo nomeado responsável pelos resultados de IA em toda a organização — estratégia, governance, construção de capacidade, selecção de fornecedores, e reporte de ROI ao conselho.

Porque é que importa.Sem um único responsável, o trabalho de IA dispersa-se entre TI, operações e unidades de negócio individuais, e ninguém responde pelo resultado.

Dimensão relacionada:Estratégia e visão

Classificação de risco do AI Act

O sistema de quatro níveis que o AI Act usa para ordenar sistemas de IA por risco social: proibido, risco elevado, risco limitado e risco mínimo. Cada nível desencadeia um conjunto distinto de obrigações legais.

Porque é que importa.As suas obrigações — e o seu orçamento de conformidade — dependem inteiramente do nível em que se enquadram os seus casos de uso de IA. Classificar mal é o erro mais caro que pode cometer.

Dimensão relacionada:Governação e ética

Coach de IA

Um especialista que trabalha individualmente ou em pequenos grupos para qualificar colaboradores no uso prático de IA dentro dos seus fluxos de trabalho reais — não em formação genérica.

Porque é que importa.Coaching fecha o fosso entre as ferramentas de IA que a empresa pagou e as ferramentas de IA que os colaboradores efectivamente usam. As licenças são habitualmente a parte barata.

Dimensão relacionada:Pessoas e capacidades

Critérios de cancelamento

Condições previamente acordadas em que uma iniciativa de IA será parada — definidas antes de começar, para que a decisão seja automática em vez de política.

Porque é que importa.Sem critérios de cancelamento, iniciativas a falhar continuam a ser financiadas porque ninguém quer admitir que se enganou. Com eles, o capital recicla-se para o que funciona.

Dimensão relacionada:ROI e medição

Dados pessoais (PII)

Quaisquer dados que permitam identificar uma pessoa singular — directamente (nome, email, NIF) ou indirectamente em combinação com outros dados (código postal mais data de nascimento mais função).

Porque é que importa.O limiar para dados pessoais ao abrigo do RGPD é muito mais baixo do que a maior parte das equipas assume. Ferramentas internas de IA que parecem anonimizadas frequentemente não estão.

Dimensão relacionada:Fundações de dados

Dados sintéticos

Dados artificiais gerados por um modelo para imitar a estrutura estatística de dados reais, sem conter registos efectivos de pessoas reais.

Porque é que importa.Uma forma prática de treinar e testar sistemas de IA sem expor dados reais de clientes — mas só se forem gerados correctamente. Dados sintéticos mal feitos deixam vazar os originais.

Dimensão relacionada:Fundações de dados

Drift do modelo

A degradação gradual do desempenho de um modelo à medida que os dados reais que vê divergem dos dados com que foi treinado. Existe em duas variantes: drift de dados (as entradas mudam) e drift de conceito (a relação subjacente muda).

Porque é que importa.O drift é silencioso. Um modelo pode degradar-se durante meses sem ninguém reparar, sobretudo se as suas saídas alimentarem decisões automatizadas a jusante.

Dimensão relacionada:Ferramentas e infraestrutura

Embeddings

Representações numéricas de texto, imagens ou outros conteúdos como vectores de números, de modo a que itens semanticamente próximos fiquem próximos no espaço vectorial.

Porque é que importa.Embeddings são a fundação da pesquisa semântica, recomendação, classificação e RAG. Quase qualquer pipeline de IA empresarial útil produz embeddings em algum ponto.

Engenharia de prompts

A disciplina de desenhar, testar e refinar as instruções dadas a um modelo de linguagem para produzir saídas fiáveis, rigorosas e úteis.

Porque é que importa.Um prompt bem desenhado supera frequentemente um modelo afinado a um décimo do custo — razão pela qual a engenharia de prompts é a competência interna com maior alavancagem para construir.

Dimensão relacionada:Pessoas e capacidades

Estratégia de IA

Um documento aprovado pelo conselho de administração que diz onde a IA vai criar valor para o negócio nos próximos 18 a 36 meses, o que não vai ser perseguido, quem é responsável pela entrega, e quanto vai ser investido.

Porque é que importa.Na investigação longitudinal do MIT Sloan/BCG, a existência de uma estratégia de IA clara é o preditor isolado mais forte de captura de valor mensurável em IA.

Dimensão relacionada:Estratégia e visão

Fine-tuning

O processo de pegar num modelo de IA já treinado e continuar o treino com um conjunto de dados mais pequeno e específico, para que tenha melhor desempenho numa tarefa ou estilo particular.

Porque é que importa.O fine-tuning é frequentemente apresentado como a resposta quando retrieval (RAG) ou um melhor prompt seriam mais baratos, mais rápidos e mais fáceis de governar. Escolha a ferramenta certa, não a impressionante.

Gestão da mudança em IA

O conjunto estruturado de actividades — comunicação, formação, redesenho de funções, alteração de incentivos — que move uma organização do anúncio da IA para o uso efectivo da IA.

Porque é que importa.A tecnologia raramente é o estrangulamento. O estrangulamento é se as chefias intermédias percebem como o trabalho da equipa muda, e se são recompensadas por o mudar.

Dimensão relacionada:Pessoas e capacidades

Governance de dados

O quadro organizacional — papéis, políticas e controlos — que define quem é dono de cada domínio de dados, como se garante a qualidade, e como se concedem e revogam acessos.

Porque é que importa.O Artigo 10.º do AI Act torna a governance de dados um requisito legal para sistemas de risco elevado. É também o maior preditor isolado de se um projecto de IA chega a produção.

Dimensão relacionada:Fundações de dados

IA multimodal

Sistemas de IA que conseguem processar e gerar mais do que um tipo de conteúdo — por exemplo, texto e imagem, ou texto e áudio e vídeo.

Porque é que importa.Os modelos multimodais abrem casos de uso fora do alcance da IA só de texto: compreensão de documentos com gráficos e tabelas, controlo de qualidade visual, interfaces voice-first e acessibilidade.

Inferência

O acto de correr um modelo de IA já treinado para produzir uma saída — por oposição ao treino, que é o processo de construir o modelo em primeiro lugar.

Porque é que importa.É na inferência que o custo de IA se incorre à escala. Custo de inferência por consulta vezes volume de consultas é a pergunta de unit economics que qualquer CFO acabará por fazer.

Janela de contexto

A quantidade máxima de texto — medida em tokens — que um modelo de linguagem consegue considerar de uma só vez ao gerar uma resposta. Os modelos de fronteira em 2026 suportam tipicamente entre 200.000 e 2.000.000 de tokens.

Porque é que importa.Os limites da janela de contexto decidem que casos de uso são viáveis. Análise de documentos longos, agentes de longa duração e revisão multi-ficheiro de código vivem ou morrem em função da janela disponível.

Linhagem de dados

O registo de ponta a ponta sobre a origem de um dado, como foi transformado e onde é utilizado. Por vezes designado por proveniência.

Porque é que importa.Sem linhagem não consegue provar a qualidade dos dados de treino, não consegue responder a perguntas do regulador sobre enviesamento, e não consegue apagar dados pessoais a pedido.

Dimensão relacionada:Fundações de dados

Literacia em IA

A compreensão prática de que os colaboradores precisam para usar bem ferramentas de IA e reconhecer os seus limites — incluindo como funcionam, onde falham, e quando não as usar.

Porque é que importa.Mandatada pelo Artigo 4.º do AI Act desde Fevereiro de 2025. É também a forma mais barata de elevar produtividade: uma força de trabalho que sabe pedir ao modelo é uma força de trabalho que entrega mais depressa.

Dimensão relacionada:Pessoas e capacidades

LLM (large language model)

Um modelo de IA treinado em vastos corpora de texto para prever o próximo token numa sequência — a tecnologia subjacente ao ChatGPT, Claude, Gemini e assistentes semelhantes.

Porque é que importa.Os LLMs são o substrato de IA de finalidade geral da próxima década. Compreender o que fazem bem — e mal — é hoje literacia executiva de base.

Mandato de literacia em IA

A obrigação do Artigo 4.º do AI Act de que fornecedores e utilizadores garantam um nível suficiente de literacia em IA entre os seus colaboradores e qualquer outra pessoa envolvida na operação de sistemas de IA em seu nome.

Porque é que importa.Em vigor desde Fevereiro de 2025. O dever recai sobre a empresa, não sobre o colaborador — é necessário um programa de literacia em IA documentado e auditável.

Dimensão relacionada:Governação e ética

MCP server (Model Context Protocol)

Uma norma introduzida pela Anthropic no final de 2024 para ligar modelos de IA a ferramentas e fontes de dados externas. Um MCP server expõe ferramentas e dados que qualquer cliente de IA compatível pode usar.

Porque é que importa.MCP está a tornar-se o conector universal entre assistentes de IA e sistemas empresariais — o equivalente ao papel que o USB joga no hardware.

Dimensão relacionada:Ferramentas e infraestrutura

Método de atribuição

A técnica usada para isolar a parcela de um resultado de negócio que uma iniciativa de IA efectivamente causou — separando-a de efeitos de mercado, sazonalidade e outras mudanças simultâneas.

Porque é que importa.Sem um método de atribuição defensável, qualquer ROI de IA reportado é apenas uma história. Com um, consegue defender números à frente de um CFO.

Dimensão relacionada:ROI e medição

MLOps

A disciplina de engenharia que traz as práticas DevOps para o machine learning — versionamento de modelos e dados, automação da implementação, monitorização de drift, e gestão de re-treino.

Porque é que importa.Sem MLOps, cada modelo de IA em produção é um projecto científico isolado. Com ela, é possível lançar e operar dezenas.

Dimensão relacionada:Ferramentas e infraestrutura

Model card

Um documento curto e estruturado que descreve um modelo de IA — a sua utilização prevista, dados de treino, métricas de desempenho, limitações conhecidas e considerações éticas.

Porque é que importa.O Artigo 11.º do AI Act torna efectivamente as model cards obrigatórias para sistemas de risco elevado. Mesmo fora desse âmbito, são a ferramenta mais barata de due diligence sobre fornecedores.

Dimensão relacionada:Ferramentas e infraestrutura

Modelo de IA de finalidade geral (GPAI)

Um modelo de IA treinado com dados amplos que consegue executar uma vasta gama de tarefas e ser integrado em muitos sistemas a jusante — por exemplo, os modelos de fundação por trás do ChatGPT, Claude e Gemini.

Porque é que importa.Os fornecedores de GPAI têm obrigações próprias no AI Act, incluindo documentação do modelo e transparência sobre direitos de autor. Se afina ou implementa um, parte dessas obrigações cai sobre si.

Dimensão relacionada:Governação e ética

Modelo operacional de IA

A escolha estrutural sobre como a capacidade de IA é organizada: uma equipa central, especialistas integrados nas unidades de negócio, um modelo federado em hub-and-spoke, ou um centro de excelência que apoia entrega descentralizada.

Porque é que importa.O modelo errado bloqueia a entrega durante anos. A maior parte das empresas mid-market deve começar federada e centralizar capacidades específicas, e não o contrário.

Dimensão relacionada:Estratégia e visão

Obrigações de transparência

Deveres do Artigo 50.º do AI Act que exigem divulgar o envolvimento de IA: os utilizadores devem ser informados quando interagem com um sistema de IA, e conteúdos gerados ou manipulados por IA (deepfakes, media sintético) devem ser identificados como tal.

Porque é que importa.Mesmo sistemas de risco mínimo têm deveres de transparência. Chatbots, agentes de voz e imagens de marketing geradas por IA precisam todos de divulgação clara ao cliente.

Dimensão relacionada:Governação e ética

Práticas de IA proibidas

Usos de IA totalmente banidos pelo Artigo 5.º do AI Act, incluindo scoring social, recolha não-direccionada de imagens faciais, reconhecimento de emoções em locais de trabalho e escolas, e a maioria da identificação biométrica remota em tempo real em espaços públicos.

Porque é que importa.Estas proibições estão em vigor desde Fevereiro de 2025 e implicam as maiores coimas do AI Act — até 7% do volume de negócios anual global.

Dimensão relacionada:Governação e ética

Princípios FAIR para dados

Um conjunto de orientações largamente adoptado segundo o qual os dados devem ser Findable (encontráveis), Accessible (acessíveis), Interoperable (interoperáveis) e Reusable (reutilizáveis). Surgiu em 2016 na comunidade de ciência aberta.

Porque é que importa.FAIR é o que mais se aproxima de uma referência universal para fundações de dados. Se não consegue confirmar as quatro letras para os dados que a sua IA usa, é aí que está o seu estrangulamento.

Dimensão relacionada:Fundações de dados

Priorização de investimento em IA

Um quadro documentado que ordena candidatas a iniciativas de IA face a limiares explícitos de ROI, gates de risco e adequação à capacidade — não face a quem grita mais alto.

Porque é que importa.Sem um quadro de priorização, o orçamento de IA tende a ser alocado pelos ciclos comerciais dos fornecedores. O resultado é uma carteira de pilotos que ninguém pediu.

Dimensão relacionada:Estratégia e visão

RAG (geração aumentada por retrieval)

Um padrão em que um modelo de linguagem responde a uma pergunta primeiro recuperando documentos relevantes de uma base de conhecimento, e depois gerando uma resposta ancorada neles.

Porque é que importa.RAG é como a maioria dos assistentes de IA empresariais se mantém precisa e citável. É também a alternativa mais barata ao fine-tuning quando o modelo precisa de conhecer os seus dados.

Dimensão relacionada:Ferramentas e infraestrutura

Realização de valor

A disciplina de acompanhar uma iniciativa de IA para além do go-live, até ao resultado financeiro que era suposto produzir — tipicamente ao longo dos quatro a oito trimestres seguintes.

Porque é que importa.A maior parte do valor de IA é capturada (ou perdida) nos meses depois da implementação, não no lançamento. Empresas que param de medir no go-live capturam apenas uma fracção do upside disponível.

Dimensão relacionada:ROI e medição

Reporte de incidentes de IA

O dever, ao abrigo do Artigo 73.º do AI Act, de notificar as autoridades de fiscalização do mercado sobre incidentes graves e mau-funcionamento envolvendo sistemas de IA de risco elevado.

Porque é que importa.É necessário um processo interno de detecção de incidentes e um relógio de reporte de 15 dias antes da implementação — não depois do primeiro incidente acontecer.

Dimensão relacionada:Governação e ética

Residência de dados

A localização geográfica onde os dados são armazenados e processados. Residência de dados na UE significa que todo o armazenamento e computação acontece dentro da União Europeia.

Porque é que importa.Essencial para a confiança no RGPD e para a conformidade pós-Schrems II. Muitos departamentos de compras tratam hoje a residência fora da UE como um critério de exclusão imediato.

Dimensão relacionada:Fundações de dados

Responsible AI (IA responsável)

O termo guarda-chuva para desenhar, construir e operar sistemas de IA que sejam justos, transparentes, auditáveis, seguros e alinhados com valores humanos — operacionalizado por frameworks como NIST AI RMF e ISO/IEC 42001.

Porque é que importa.Responsible AI é cada vez mais um requisito de compras: grandes empresas e o sector público esperam práticas documentadas, e não slogans, antes de assinarem.

Scorecard de ROI de IA

Um registo estruturado que regista, para cada iniciativa de IA, o resultado de negócio visado, a baseline, o resultado medido, e o impacto financeiro líquido.

Porque é que importa.Sem scorecard, sem prestação de contas. As empresas que não o têm sobrestimam quase sempre o valor de IA porque recordam as vitórias e esquecem os pilotos que morreram.

Dimensão relacionada:ROI e medição

Sistema de IA de risco elevado

Um sistema de IA listado no Anexo III do AI Act ou utilizado como componente de segurança de um produto regulado — por exemplo, IA usada em recrutamento, scoring de crédito, educação, infra-estruturas críticas ou aplicação da lei.

Porque é que importa.Os sistemas de risco elevado exigem avaliação de conformidade, documentação técnica, supervisão humana e monitorização pós-mercado antes de poderem ser colocados no mercado da UE.

Dimensão relacionada:Governação e ética

Supervisão humana

O requisito de que sistemas de IA de risco elevado sejam concebidos e usados para que pessoas singulares possam efectivamente monitorizá-los, intervir e anular as suas decisões — definido no Artigo 14.º do AI Act.

Porque é que importa.Supervisão é um requisito de desenho, não um slogan. O sistema tem de expor a sua confiança, dar controlos de revisão, e permitir que o revisor humano perceba o que o modelo está a fazer.

Dimensão relacionada:Governação e ética

Temperatura

Um parâmetro de um modelo de linguagem que controla o quanto as suas saídas são aleatórias. Temperatura baixa (perto de 0) produz saídas determinísticas e conservadoras; temperatura alta produz saídas mais variadas e criativas.

Porque é que importa.A maioria dos casos de uso empresariais quer temperatura baixa para ter previsibilidade e auditoria. Os valores por defeito são frequentemente mais altos do que deveriam para trabalho sensível à conformidade.

Teste de holdout

Um desenho experimental em que parte da população é deliberadamente excluída de uma intervenção de IA para que a diferença de resultados entre tratamento e holdout possa ser medida.

Porque é que importa.Um holdout é o padrão-ouro para provar ROI de IA. É também o teste que a maioria das empresas se recusa a fazer porque tem medo do que vai mostrar.

Dimensão relacionada:ROI e medição

Tokenização

O processo de partir texto nas unidades mais pequenas (tokens) que um modelo de linguagem efectivamente processa. Aproximadamente, uma palavra inglesa equivale a 1,3 tokens; uma palavra portuguesa um pouco mais.

Porque é que importa.Os tokens são a unidade de preço de praticamente todos os fornecedores de IA. Compreender tokenização permite prever custos e explicar porque é que cargas de trabalho em português, francês e alemão são sistematicamente mais caras do que as inglesas.

Transformer

A arquitectura de rede neuronal, introduzida pela Google em 2017, que está por trás de praticamente todos os modelos de linguagem modernos. A sua inovação central é o mecanismo de atenção que permite ao modelo ponderar a relevância de cada palavra face a todas as outras.

Porque é que importa.Quase todo o avanço comercialmente significativo em IA desde 2018 — do GPT ao AlphaFold — assenta no transformer.

Vendor lock-in

O estado de estar amarrado a um único fornecedor de IA porque os custos de mudança — re-treino, re-integração, re-procurement — são proibitivos.

Porque é que importa.O lock-in em IA acumula-se mais depressa do que o lock-in tradicional em SaaS, porque dados, prompts, fine-tuning e estado de agentes ficam todos específicos do fornecedor.

Dimensão relacionada:Ferramentas e infraestrutura