Conteúdo Atualizado em 13 de outubro de 2025 por felipecferreira, enjoy!
Alucinações em LLMs (Large Language Models ou Modelos de Linguagem de Grande Escala) são inevitáveis em sistemas computáveis e, por isso, entender sua taxonomia de alucinações é essencial para projetar aplicações seguras.
Neste conteúdo vamos fazer uma revisão do paper de Manuel Cossio, publicado em agosto de 2025, originalmente com o título de “A comprehensive taxonomy of hallucinations in Large Language Models“.
O paper propõe uma definição formal do fenômeno via teoria da computação, estrutura os tipos centrais (intrínsecas vs. extrínsecas; factualidade vs. fidelidade) e fecha com diretrizes de mitigação em arquitetura e produto.
Você pode acessar o paper na íntegra, clicando aqui.
Definição formal e inevitabilidade das alucinações
O trabalho parte de uma condição formal:
Dado um LLM computável e uma função de verdade computável, sempre existirão entradas para as quais o modelo diverge do valor correto (em qualquer estágio de treino).
A prova recorre a diagonalização, mostrando limites intrínsecos do que é computável por LLMs.
A consequência prática é direta: não há caminho para “zerar” alucinações; o objetivo realista é reduzir frequência e impacto, com mecanismos de detecção, contenção e validação humana.
Teoremas centrais abordados no paper:
Teorema / Corolário | Enunciado (síntese) | Implicação prática |
---|---|---|
Teorema 1 – LLMs enumeráveis computavelmente irão alucinar | Para qualquer conjunto computavelmente enumerável de LLMs, existe uma função de verdade computável f tal que todos os estados de todos os LLMs desse conjunto alucinam em relação a f. | LLMs atuais (limitados por tempo polinomial) são inerentemente propensos a alucinar; não é possível eliminar totalmente. |
Teorema 2 – Alucinação em infinitas questões | Para qualquer conjunto computavelmente enumerável de LLMs, existe uma f computável tal que todos os estados de todos os LLMs alucinam em infinitas entradas. | Alucinações não são incidentes isolados; o problema é persistente ao longo de vastos domínios de entrada. |
Teorema 3 – Qualquer LLM computável irá alucinar | Para qualquer LLM computável individual, existe uma f computável tal que todo estado desse LLM alucina; existe também f’ para a qual a alucinação ocorre em infinitas entradas. | A inevitabilidade se aplica a modelos específicos (atuais e futuros), independentemente de arquitetura. |
Corolário 1 – Incapacidade de auto-eliminação | Nenhum LLM computável consegue impedir-se de alucinar por mecanismos internos. | Auto-correção e técnicas de prompting são insuficientes sozinhas; é preciso salvaguardas externas e validação humana. |
Núcleo da taxonomia: intrínsecas vs. extrínsecas; factualidade vs. fidelidade
A taxonomia organiza o fenômeno em dois eixos amplamente aceitos.
Alucinações intrínsecas contradizem o próprio contexto ou a lógica interna do texto gerado (ex.: inconsistências dentro de um resumo).
Alucinações extrínsecas introduzem entidades, fatos ou eventos que não constam do contexto nem da realidade observável (típicas quando o modelo tenta “preencher” lacunas).
No segundo eixo, factualidade avalia correção objetiva (verdade factual) e fidelidade mede adesão ao “insumo”.
Um modelo pode ser fiel e não factual (reproduzindo um erro do documento de origem) ou factual e pouco fiel (acrescentando conteúdo correto, porém não solicitado).
Essas distinções orientam tanto métricas quanto táticas de mitigação.
Implicações para uso real: Produtos e Risco
Assumida a inevitabilidade, áreas que exigem precisão (matemática avançada, lógica, decisões de alto risco em saúde, direito e finanças) requerem escrutínio reforçado e human-in-the-loop (participação humana estratégica em pontos de uma determinada automação).
Sem integração de guardrails (mecanismos de segurança), bases de conhecimento ou supervisão, não é seguro delegar decisões críticas ao modelo.
Em termos de governança, o recorte teórico do estudo sustenta a necessidade de políticas de uso, limites de escopo e auditoria contínua.
Isto se conecta muito com o que tenho visto em aspectos práticos e no trabalho com Inteligência Artificial no dia a dia.
Mesmo os modelos mais avançados (escrevo isto no final de setembro de 2025) como Grok 4 Fast, Gemini 2.5 Pro e GPT-5 Thinking, cometem erros crassos e ainda alucinam.
Obviamente melhoraram muito em performance, latência, preço e no percentual de alucinações por query (ao longo dos últimos anos e meses), seja em perguntas diretas, solicitações que demandam mais recursos computacionais, como deep search, agent mode e no trabalho com bases de dados (sejam por planilhas maiores, Bancos de Dados ou Vector Stores).
Mas elas ainda ocorrem e, por isto, vejo que estamos longe de sistemas de AI substituírem completamente departamentos e funcionarem de forma absolutamente autônoma.
Com o que existe hoje disponível para ser comprado no mercado, julgo que estamos bem distantes de qualquer coisa que possamos denominar AGI (Artificial General Intelligence ou Inteligência Artificial Geral)..
Bom, este é um outro assunto. Vamos seguir na análise do paper!
Mitigação híbrida e sensível ao contexto de Alucinações
Uma coisa fica muito clara com todo o conteúdo técnico do artigo: não existe bala de prata.
O paper converge para sistemas híbridos que combinam: uso de ferramentas (cálculo, execução de código, consultas), retrieval grounding para reduzir dependência da memória paramétrica, fine-tuning com curadoria/adversarial filtering e guardrails (validadores lógicos, filtros de regras, correções baseadas em conhecimento).
Em situações de incerteza, fallbacks (plano ou opção de contingência) baseados em regras (recusar resposta, pedir esclarecimento, escalar a um humano) reduzem o dano.
A recomendação é tornar o pipeline sensível ao contexto: metas mais rígidas e recuperação obrigatória em domínios críticos; tolerância controlada em tarefas criativas, sempre com sinalização de incerteza ao usuário (próxima cadeia do processo).
Considerações finais
O valor do paper está em três entregas:
(i) Uma definição formal que desloca a ambição de “eliminar” para gerenciar alucinações;
(ii) Uma taxonomia operacional que ajuda a diagnosticar erros na prática;
(iii) Um roteiro de mitigação que integra arquitetura, processo e produto.
Para PMEs e equipes de dados, na minha visão, a mensagem é pragmática: delimite escopo, meça por tarefa, maximize rastreabilidade (fontes + validadores) e mantenha gente (qualificada) no circuito (processo de ponta a ponta) onde a consequência de erro é alta.
Referência
COSSIO, Manuel. A comprehensive taxonomy of hallucinations in Large Language Models. Barcelona: Universitat de Barcelona, 2025. Preprint (arXiv). Disponível em: arXiv:2508.01781. Acesso em: 29 set. 2025.