Chain-of-Verification (FR)
Chain-of-Verification (CoVe) est une méthode proposée pour réduire le nombre d'« hallucinations » (la génération de réponses factuellement incorrectes mais plausibles) dans les grands modèles de langage (LLM)[1]. L'approche, développée par un groupe de chercheurs de Meta AI sous la direction de Shehzaad Dhuliawala et présentée dans l'article « Chain-of-Verification Reduces Hallucination in Large Language Models » (2023), appartient à la classe des méthodes d'« auto-vérification » et d'« auto-correction » (self-verification) des LLM[2]. L'idée principale de CoVe consiste en une vérification par étapes de la réponse générée par le modèle lui-même, sans faire appel à des sources externes[2]. Cela incite le système à consacrer davantage d'efforts « raisonnés » à l'auto-analyse de sa réponse et à la correction de ses propres erreurs avant de la présenter à l'utilisateur[2].
Contexte : les hallucinations dans les modèles de langage
Les grands modèles de langage (LLM) souffrent fréquemment du phénomène d'« hallucinations », c'est-à-dire la génération de réponses qui semblent plausibles mais sont factuellement incorrectes[3]. Ce problème est largement reconnu comme non résolu dans le domaine du TALN : même les modèles de pointe peuvent fournir des informations fausses avec une grande confiance, induisant les utilisateurs en erreur[1]. Par exemple, un modèle peut « inventer » de manière convaincante un fait inexistant ou confondre les données biographiques d'une personnalité connue. Comme de telles erreurs factuelles sont difficiles à détecter sans une vérification détaillée, les chercheurs développent activement des méthodes pour réduire le nombre d'hallucinations dans les réponses des LLM.
Étapes de la méthode CoVe
La méthode Chain-of-Verification se déroule en quatre étapes successives[2][2] :
- Génération de la réponse de base. Le modèle, sans instructions spécifiques, génère une réponse initiale à la requête de départ (hypothèse de base de la réponse)[3]. Ce brouillon sert de point de départ et peut contenir des hallucinations qui devront être détectées lors des étapes suivantes.
- Planification des questions de vérification. En se basant sur la question originale et la réponse générée, le modèle formule une liste de questions de clarification visant à vérifier l'exactitude factuelle des affirmations de la réponse de base[3]. Ces questions de vérification (verification questions) ciblent les faits clés de la réponse et aident à identifier les erreurs ou imprécisions éventuelles.
- Exécution de la vérification. Ensuite, le modèle répond de manière séquentielle et indépendante à chacune des questions de vérification formulées, en essayant de ne pas se fier à la réponse initiale pour éviter tout biais[3]. Les réponses obtenues sont comparées à la réponse de base pour détecter des contradictions ou des erreurs : on identifie ainsi les parties de la réponse initiale qui ne sont pas confirmées par les faits.
- Formulation de la réponse finale. Enfin, sur la base des divergences trouvées, le modèle génère une réponse finale corrigée[3]. Des ajustements sont apportés à cette réponse en tenant compte des résultats de la vérification, ce qui améliore sa précision factuelle et réduit la probabilité d'hallucinations.
Chacune de ces étapes est réalisée à l'aide de requêtes supplémentaires adressées au même LLM, mais avec des instructions différentes[2]. Autrement dit, le modèle joue tour à tour le rôle de celui qui répond, puis de celui qui vérifie (en posant des questions et en y répondant), et enfin de rédacteur de la sortie finale.
Variantes de mise en œuvre de la vérification
Les auteurs de la méthode ont testé plusieurs modes de mise en œuvre de l'étape de vérification, qui diffèrent par la manière de poser les questions de vérification et d'obtenir les réponses[2] :
- Approche conjointe (Joint). Le modèle génère à la fois les questions de vérification et les réponses à celles-ci dans le cadre d'une seule et même requête. Cette variante est moins préférable, car en répondant immédiatement, le modèle peut halluciner des faits et répéter les erreurs de la réponse initiale en raison d'un biais[3].
- Approche en deux étapes (2-Step). Les questions de vérification sont d'abord générées par une requête distincte, puis, dans une requête suivante, le modèle répond à la liste de questions ainsi formée[3]. La séparation des étapes aide à éviter l'influence de la réponse initiale lors de la génération des questions.
- Vérification factorisée (Factored). Le modèle répond séparément à chaque question de vérification, en utilisant plusieurs requêtes successives (une par question)[3]. Une telle approche empêche un simple copier-coller de fragments de la réponse initiale : les réponses aux questions de vérification sont formulées de manière autonome, ce qui réduit le risque de répéter l'hallucination de départ. L'inconvénient est l'augmentation du coût de calcul, car le nombre de requêtes augmente proportionnellement au nombre de questions.
- Vérification factorisée avec révision (Factored + Revise). Après avoir obtenu les réponses à toutes les questions de vérification, le modèle effectue une étape supplémentaire de comparaison et de révision. À l'aide d'une requête distincte, il confronte les faits obtenus avec la réponse initiale et signale explicitement les incohérences, après quoi il génère la réponse finale avec les corrections[3]. Cette étape supplémentaire oblige le système à analyser plus attentivement les divergences et à intégrer les informations corrigées dans la conclusion finale.
Résultats expérimentaux
La méthode Chain-of-Verification a été testée sur un ensemble de tâches sensibles à la précision factuelle des réponses[1]. Parmi celles-ci figuraient : des questions d'énumération de faits basées sur une base de connaissances (listes de Wikidata et catégories de Wikipedia), des questions à réponses multiples provenant de différentes parties d'un texte (MultiSpanQA), ainsi que des tâches de génération de texte long (par exemple, des biographies)[1].
Les résultats ont montré une réduction significative des hallucinations pour tous les types de tâches lors de l'utilisation de CoVe par rapport aux modèles de base sans auto-vérification[1]. La variante « factored + revise » – vérification factorisée avec confrontation finale des faits – s'est avérée particulièrement efficace. Cette approche a donné les meilleurs indicateurs de précision : par exemple, dans la tâche de génération de texte biographique, l'application de CoVe au modèle LLaMA-65B (un LLM de 65 milliards de paramètres) a augmenté sa métrique factuelle FactScore d'environ 63,7 à environ 71,4 points[2]. L'augmentation du FactScore indique que les réponses finales contenaient davantage de faits vérifiés et moins d'informations fictives.
De plus, le LLM doté de la chaîne de vérification a réussi à surpasser même certains systèmes plus puissants ou spécialement équipés. Ainsi, LLaMA-65B avec CoVe a montré un FactScore plus élevé que ChatGPT (le modèle d'OpenAI) et a devancé Perplexity.ai — un modèle augmenté d'une recherche sur Internet pour étayer factuellement ses réponses[2]. Ceci est remarquable, car Perplexity utilise des sources externes pour rechercher des informations, tandis que CoVe parvient à améliorer la qualité en s'appuyant uniquement sur les capacités internes du modèle à raisonner et à s'auto-vérifier[2]. Certes, pour les faits les plus rares (lorsque des connaissances spécifiques sont requises), un système de type « retrieval » comme Perplexity conserve encore un avantage, mais sur la majorité des questions, CoVe a fourni des réponses plus précises[2].
Limites et perspectives
Il convient de noter que, bien que Chain-of-Verification réduise considérablement la part des hallucinations, cette méthode n'est pas en mesure de les éliminer complètement. Le modèle peut encore commettre des erreurs si les questions de vérification n'ont pas couvert un détail incorrect ou si le LLM lui-même ne connaît pas le fait exact. De plus, CoVe augmente la charge de calcul : pour une seule requête utilisateur, il est nécessaire d'effectuer plusieurs appels successifs au modèle (génération de la réponse, génération des questions, réponses à celles-ci, assemblage final), alors qu'un modèle classique répond en une seule étape[2]. Néanmoins, les auteurs montrent que, en termes de coûts totaux, CoVe est comparable à d'autres approches multi-étapes de détection des hallucinations et reste une solution pratique[2].
Dans leur travail, les chercheurs de Meta AI ont indiqué des pistes possibles pour améliorer la méthode. L'une des voies évidentes est de combiner CoVe avec l'utilisation d'outils externes, par exemple en connectant un module de recherche sur Internet ou des bases de connaissances à l'étape de vérification[2]. Cela permettrait d'obtenir des informations fiables de l'extérieur et de confirmer ou d'infirmer encore plus sûrement les faits de la réponse initiale. Ainsi, Chain-of-Verification constitue une avancée vers des systèmes d'IA plus responsables et plus précis : il démontre qu'en forçant un modèle à réexaminer de manière critique sa propre réponse, on peut améliorer considérablement sa qualité et réduire la diffusion de faits fictifs dans le texte généré[2].
Liens
- Article original « Chain-of-Verification Reduces Hallucination in Large Language Models » sur arXiv
- Article « Chain-of-Verification Reduces Hallucination in Large Language Models » dans l'ACL Anthology
- Chain of Verification (CoVe) — Understanding & Implementation — article sur Medium
Bibliographie
- Dhuliawala, S. et al. (2023). Chain-of-Verification Reduces Hallucination in Large Language Models. arXiv:2309.11495.
- Manakul, P. et al. (2023). SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models. arXiv:2303.08896.
- Yang, B. et al. (2025). Hallucination Detection in Large Language Models with Metamorphic Relations. arXiv:2502.15844.
- Liang, X. et al. (2024). Internal Consistency and Self-Feedback in Large Language Models: A Survey. arXiv:2407.14507.
- Lightman, H. et al. (2023). Let’s Verify Step by Step. arXiv:2305.20050.
- Ling, Z. et al. (2023). Deductive Verification of Chain-of-Thought Reasoning. arXiv:2306.03872.
- Lyu, Q. et al. (2023). Faithful Chain-of-Thought Reasoning. arXiv:2301.13379.
- Madaan, A. et al. (2023). Self-Refine: Iterative Refinement with Self-Feedback. arXiv:2303.17651.
- Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
- Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
- Yao, S. et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.
Notes
- ↑ 1.0 1.1 1.2 1.3 1.4 Dhuliawala, Shehzaad et al. « Chain-of-Verification Reduces Hallucination in Large Language Models ». arXiv. [1]
- ↑ 2.00 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.10 2.11 2.12 2.13 2.14 Dhuliawala, Shehzaad et al. « Chain-of-Verification Reduces Hallucination in Large Language Models ». ACL Anthology. [2]
- ↑ 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 chowdhury, sourajit roy. « Chain of Verification (CoVe) — Understanding & Implementation ». Medium. [3]