Chain-of-Verification (PT)
Chain-of-Verification (CoVe) — é um método proposto para reduzir o número de alucinações (geração de respostas factualmente incorretas, mas plausíveis) em grandes modelos de linguagem (LLM)[1]. A abordagem, desenvolvida por um grupo de pesquisadores da Meta AI liderado por Shehzaad Dhuliawala e apresentada no trabalho “Chain-of-Verification Reduces Hallucination in Large Language Models” (2023), pertence à classe de métodos de autoverificação e autocorreção (self-verification) de LLMs[2]. A ideia principal do CoVe consiste na verificação em etapas da resposta gerada pelo próprio modelo, sem o auxílio de fontes externas[2]. Isso incentiva o sistema a dedicar mais esforço “racional” à autoanálise da resposta e à correção de seus próprios erros antes de apresentá-la ao usuário[2].
Contexto: alucinações em modelos de linguagem
Grandes modelos de linguagem (LLMs) frequentemente sofrem do fenômeno de “alucinações” – a geração de respostas que parecem plausíveis, mas são factualmente incorretas[3]. Este problema é amplamente reconhecido como um desafio em aberto no campo do NLP: mesmo os modelos mais modernos podem fornecer informações falsas com alta confiança, enganando os usuários[1]. Por exemplo, um modelo pode “inventar” de forma convincente um fato inexistente ou confundir dados biográficos de uma personalidade conhecida. Como esses erros factuais são difíceis de detectar sem uma verificação detalhada, os pesquisadores estão desenvolvendo ativamente métodos para reduzir o número de alucinações nas respostas dos LLMs.
Etapas do método CoVe
O método Chain-of-Verification é implementado em quatro etapas consecutivas[2][2]:
- Geração da resposta base. O modelo, sem instruções especiais, gera uma resposta inicial para a consulta original (hipótese de resposta base)[3]. Esse rascunho serve como ponto de partida e pode conter alucinações que precisarão ser detectadas nas etapas seguintes.
- Planejamento de perguntas de verificação. Com a pergunta original e a resposta gerada, o modelo formula uma lista de perguntas de esclarecimento para verificar a correção factual das afirmações na resposta base[3]. Essas perguntas de verificação (verification questions) visam fatos-chave na resposta e ajudam a identificar possíveis erros ou imprecisões.
- Execução da verificação. Em seguida, o modelo responde de forma sequencial e independente a cada uma das perguntas de verificação formuladas, tentando não se basear na resposta inicial para evitar viés[3]. As respostas obtidas são comparadas com a resposta original para detectar contradições ou erros: dessa forma, são identificadas as partes da resposta original que não são confirmadas pelos fatos.
- Formulação da resposta final. Por fim, com base nas discrepâncias encontradas, o modelo gera uma resposta final corrigida[3]. Nessa resposta, são feitas correções levando em conta os resultados da verificação, o que aumenta sua precisão factual e reduz a probabilidade de alucinações.
Cada uma dessas etapas é executada por meio de prompts adicionais para o mesmo LLM, mas com instruções diferentes[2]. Ou seja, o modelo atua alternadamente como respondente, depois como verificador (que formula e responde às perguntas) e, por fim, como editor da saída final.
Variantes de implementação da verificação
Os autores do método testaram vários modos de implementação da etapa de verificação, que diferem na forma como as perguntas de verificação são formuladas e respondidas[2]:
- Abordagem conjunta (Joint). O modelo gera tanto as perguntas de verificação quanto as respostas para elas em um único prompt. Essa variante é menos preferível, pois o modelo, ao responder imediatamente, pode alucinar fatos e repetir os erros da resposta original devido ao viés[3].
- Abordagem em duas etapas (2-Step). As perguntas de verificação são primeiro geradas com um prompt separado e, em seguida, em um prompt subsequente, o modelo responde à lista de perguntas formulada[3]. A separação das etapas ajuda a evitar a influência da resposta original durante a geração das perguntas.
- Verificação fatorada (Factored). O modelo responde separadamente a cada pergunta de verificação, usando vários prompts sequenciais (um por pergunta)[3]. Essa abordagem evita a simples cópia de trechos da resposta original: as respostas às perguntas de verificação são formuladas de forma autônoma, o que reduz o risco de repetir a alucinação inicial. A desvantagem é o aumento do custo computacional, pois o número de prompts cresce proporcionalmente ao número de perguntas.
- Verificação fatorada com revisão (Factored + Revise). Após obter as respostas para todas as perguntas de verificação, o modelo realiza uma etapa adicional de comparação e revisão. Com um prompt separado, ele compara os fatos obtidos com a resposta original e marca explicitamente as inconsistências, gerando em seguida a resposta final com as correções[3]. Este passo adicional força o sistema a analisar as discrepâncias com mais atenção e a integrar as informações corrigidas na conclusão final.
Resultados experimentais
O método Chain-of-Verification foi testado em uma série de tarefas sensíveis à precisão factual das respostas[1]. Entre elas estavam: perguntas sobre listagem de fatos com base em uma base de conhecimento (listas do Wikidata e categorias da Wikipedia), perguntas com múltiplas respostas de diferentes partes de um texto (MultiSpanQA), bem como tarefas de geração de texto longo (por exemplo, biografias)[1].
Os resultados mostraram uma redução significativa das alucinações em todos os tipos de tarefas ao usar o CoVe em comparação com os modelos originais sem autoverificação[1]. A variante “factored + revise” – verificação fatorada com uma checagem final dos fatos – revelou-se especialmente eficaz. Essa abordagem obteve os melhores indicadores de precisão: por exemplo, na tarefa de geração de texto biográfico, a aplicação do CoVe ao modelo LLaMA-65B (um LLM de 65 bilhões de parâmetros) aumentou sua métrica factual FactScore de ~63,7 para ~71,4 pontos[2]. O aumento do FactScore indica que as respostas finais passaram a conter mais fatos verificados e menos informações fictícias.
Além disso, o LLM com a cadeia de verificação conseguiu superar até mesmo alguns sistemas mais potentes ou especialmente equipados. O LLaMA-65B com CoVe apresentou um FactScore mais alto que o ChatGPT (modelo da OpenAI) e superou o Perplexity.ai — um modelo complementado com busca na internet para suporte factual das respostas[2]. Isso é notável, pois o Perplexity utiliza fontes externas para buscar informações, enquanto o CoVe alcança uma melhoria na qualidade baseando-se apenas nas capacidades internas do próprio modelo para raciocínio e autoverificação[2]. No entanto, em fatos muito raros (que exigem conhecimento específico), um sistema de recuperação (retrieval) como o Perplexity ainda mantém a vantagem, mas na maioria das perguntas, o CoVe forneceu respostas mais precisas[2].
Limitações e perspectivas
Apesar de o Chain-of-Verification reduzir notavelmente a proporção de alucinações, este método não consegue eliminá-las completamente. O modelo ainda pode cometer erros se as perguntas de verificação não cobrirem algum detalhe incorreto ou se o próprio LLM não souber o fato correto. Além disso, o CoVe aumenta a carga computacional: para uma única consulta do usuário, é necessário realizar várias chamadas sequenciais ao modelo (geração da resposta, geração das perguntas, respostas a elas, montagem final), enquanto um modelo comum responde em uma única etapa[2]. No entanto, os autores mostram que, em termos de custo total, o CoVe é comparável a outras abordagens de múltiplas etapas para detecção de alucinações e permanece uma solução prática[2].
Em seu trabalho, os pesquisadores da Meta AI indicaram possíveis direções para aprimorar o método. Um caminho óbvio é combinar o CoVe com o uso de ferramentas externas, como conectar um módulo de busca na internet ou bases de conhecimento na etapa de verificação[2]. Isso permitiria obter informações confiáveis de fontes externas e confirmar ou refutar os fatos da resposta original de forma ainda mais segura. Assim, o Chain-of-Verification representa um passo em direção a sistemas de IA mais responsáveis e precisos: ele demonstra que, ao forçar o modelo a revisar criticamente sua própria resposta, é possível aumentar significativamente sua qualidade e reduzir a disseminação de fatos fictícios no texto gerado[2].
Links
- Artigo original “Chain-of-Verification Reduces Hallucination in Large Language Models” no arXiv
- Artigo “Chain-of-Verification Reduces Hallucination in Large Language Models” na ACL Anthology
- Chain of Verification (CoVe) — Understanding & Implementation — artigo no Medium
Leitura adicional
- Dhuliawala, S. et al. (2023). Chain-of-Verification Reduces Hallucination in Large Language Models. arXiv:2309.11495.
- Manakul, P. et al. (2023). SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models. arXiv:2303.08896.
- Yang, B. et al. (2025). Hallucination Detection in Large Language Models with Metamorphic Relations. arXiv:2502.15844.
- Liang, X. et al. (2024). Internal Consistency and Self-Feedback in Large Language Models: A Survey. arXiv:2407.14507.
- Lightman, H. et al. (2023). Let’s Verify Step by Step. arXiv:2305.20050.
- Ling, Z. et al. (2023). Deductive Verification of Chain-of-Thought Reasoning. arXiv:2306.03872.
- Lyu, Q. et al. (2023). Faithful Chain-of-Thought Reasoning. arXiv:2301.13379.
- Madaan, A. et al. (2023). Self-Refine: Iterative Refinement with Self-Feedback. arXiv:2303.17651.
- Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
- Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
- Yao, S. et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.
Notas
- ↑ 1.0 1.1 1.2 1.3 1.4 Dhuliawala, Shehzaad et al. “Chain-of-Verification Reduces Hallucination in Large Language Models”. arXiv. [1]
- ↑ 2.00 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.10 2.11 2.12 2.13 2.14 Dhuliawala, Shehzaad et al. “Chain-of-Verification Reduces Hallucination in Large Language Models”. ACL Anthology. [2]
- ↑ 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 chowdhury, sourajit roy. “Chain of Verification (CoVe) — Understanding & Implementation”. Medium. [3]