Role Prompting (FR)

From Systems analysis wiki
Jump to navigation Jump to search

Le role prompting (parfois traduit par incitation par rôle), également connu sous le nom de persona prompting, est une technique de prompt engineering pour les grands modèles de langage (LLM) qui consiste à assigner explicitement au modèle un rôle, une persona ou une identité d'expert spécifique avant qu'il n'exécute une tâche[1]. En d'autres termes, le texte du prompt ou de l'instruction système spécifie que le modèle est, par exemple, un « professeur », un « historien » ou un « pirate », définissant ainsi le style, le ton et le comportement de la réponse générée[2].

Cette approche est largement utilisée dans les systèmes conversationnels. Par exemple, le prompt système par défaut de ChatGPT, « You are a helpful assistant » (« Vous êtes un assistant utile »), établit de fait le rôle de base du modèle dans la conversation[3].

Objectif et applications

L'objectif du role prompting est de guider le modèle vers un style et un axe de réponse spécifiques, afin de la rendre plus pertinente et adaptée au contexte de la tâche. L'attribution d'un rôle permet de définir la tonalité et le vocabulaire appropriés pour le modèle. Ceci est particulièrement utile dans les tâches créatives et ouvertes, où le rôle aide à rendre le texte plus vivant et stylistiquement diversifié[4].

Cette technique est également utilisée dans des scénarios professionnels. Par exemple, un chatbot de support technique peut se voir attribuer le rôle d'un représentant de service client poli, et dans les systèmes multi-agents, chaque agent se voit assigner sa propre persona (par exemple, « manager », « développeur ») pour une collaboration efficace[1]. La flexibilité des LLM modernes leur permet d'adopter presque n'importe quel rôle, d'un personnage de fiction à un spécialiste de niche, et de générer des réponses qui correspondent au mieux à l'image prescrite[1].

Impact sur la qualité et la précision

La question de l'efficacité du role prompting pour améliorer la précision objective des réponses fait l'objet de recherches actives, et les résultats sont souvent contradictoires.

Résultats contradictoires

D'une part, certaines études montrent une amélioration des résultats. Par exemple, les travaux de Zheng et al. (2023) ont révélé que si le rôle du modèle correspond thématiquement à la tâche, ses performances peuvent augmenter[5]. Les travaux de Kong et al. (2024) soutiennent que le role prompting peut améliorer le raisonnement zero-shot du modèle si la persona est bien choisie[5].

D'autre part, des études à grande échelle dressent un tableau plus complexe. Une expérience systématique portant sur 162 rôles différents n'a révélé aucun gain significatif de précision par rapport à un scénario neutre[3]. De plus, en moyenne, le role prompt a même légèrement diminué la précision des réponses[3].

Les travaux de Kim et al. (2024) décrivent l'intervention par rôle comme une « arme à double tranchant » : une expérience a montré qu'avec une instruction de rôle, le modèle GPT-4 résolvait correctement une partie des questions qui posaient problème sans elle (une amélioration d'environ ≈15,8 %), mais qu'une proportion presque aussi importante de tâches était, à l'inverse, « ruinée » par le rôle (une détérioration d'environ ≈13,8 %)[5]. Cela souligne que l'ajout d'un rôle ne garantit pas en soi une augmentation de la qualité et peut influencer le comportement du modèle de manière imprévisible.

Un avantage indéniable du role prompting est le contrôle sur le style et le format de la réponse. Même si le rôle n'améliore pas la précision factuelle, il permet d'obtenir des réponses avec une tonalité souhaitée (amicale, officielle, didactique), ce qui les rend plus cohérentes et engageantes pour l'utilisateur[4].

Recommandations pour la création de rôles

Les recherches fournissent plusieurs conseils pratiques pour une utilisation efficace du role prompting :

  • Choix du rôle : Il est recommandé de choisir des rôles sociaux neutres (par exemple, « collègue », « mentor ») et d'éviter les personnages trop intimes ou hautement spécialisés[6].
  • Formulation : Il est préférable d'assigner le rôle directement du point de vue du modèle (« Vous êtes X ») plutôt que par des scénarios imaginaires complexes (« Imaginez que vous êtes... »). L'assignation directe d'un personnage s'avère plus efficace[6].
  • Approche en deux étapes : Pour les requêtes complexes, il est suggéré de diviser la tâche en deux étapes : d'abord, donner au modèle des instructions sur son rôle et le contexte, puis poser la question principale. Cela permet au modèle de « s'imprégner du personnage » en premier, ce qui améliore la stabilité des résultats[6].

Limites et risques

L'utilisation du role prompting comporte plusieurs risques systémiques.

Renforcement des stéréotypes et des biais

Les LLM reproduisent involontairement les stéréotypes ancrés dans leurs données d'entraînement. L'attribution d'un rôle lié à une profession, un genre ou une nationalité spécifique peut activer et amplifier ces stéréotypes dans les réponses[6]. Une étude de Gupta et al. (2023) a montré que l'ajout d'attributs sociaux (âge, ethnicité) au rôle peut biaiser les résultats du modèle et réduire considérablement la précision de son raisonnement[5]. Une autre analyse (Deshpande et al., 2023) a révélé que certaines personas entraînent une toxicité accrue dans les réponses générées[5].

Vulnérabilités de sécurité

Des acteurs malveillants peuvent utiliser le role prompting pour contourner les restrictions de modération (une technique connue sous le nom de jailbreak). Des recherches ont montré que l'assignation d'une persona spécifique (par exemple, un personnage sans contraintes éthiques) facilite l'incitation du LLM à effectuer des actions interdites. Shah et al. (2023) ont réussi à utiliser la coopération de plusieurs agents « à rôle » pour contourner les limitations du modèle, démontrant ainsi une vulnérabilité systémique[7].

Par conséquent, lors de l'attribution d'un rôle à un modèle, il est crucial de prendre en compte les biais potentiels et les effets indésirables inhérents à ce rôle, et d'utiliser cette méthode avec prudence[6].

Liens externes

Bibliographie

  • Kim, J.; Yang, N.; Jung, K. (2024). Persona is a Double-edged Sword: Mitigating the Negative Impact of Role-playing Prompts in Zero-shot Reasoning Tasks. arXiv:2408.08631.
  • Kong, A. et al. (2023). Better Zero-Shot Reasoning with Role-Play Prompting. arXiv:2308.07702.
  • Zheng, M. et al. (2023). When “A Helpful Assistant” Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models. arXiv:2311.10054.
  • Shah, R. et al. (2023). Scalable and Transferable Black-Box Jailbreaks for Language Models via Persona Modulation. arXiv:2311.03348.
  • Deshpande, P. et al. (2024). Evaluating Persona-Prompted LLM Responses in Power-Disparate Health Communication. arXiv:2503.01532.
  • Xiong, F. et al. (2025). The Influence of Persona Assignment on Stereotypes and Safeguards in Chinese Large Language Models. arXiv:2506.04975.
  • Li, Y. et al. (2025). System Prompts as a Mechanism of Bias in Large Language Models. arXiv:2505.21091.
  • Wang, L. et al. (2025). Persona-Assigned Large Language Models Exhibit Human-Like Bias and Toxicity. arXiv:2506.20020.
  • Grover, K. et al. (2023). In-Context Impersonation Reveals Large Language Models’ Ability to Simulate Human Personas. PDF.
  • Verma, V. et al. (2024). Systematic Survey of Prompt Engineering in Large Language Models. arXiv:2402.07927.
  • Gupta, S. et al. (2024). Exploring the Impact of Personality Traits on LLM Bias and Toxicity. arXiv:2502.12566.
  • Safdari, M. et al. (2024). LLMs are Vulnerable to Malicious Prompts Disguised as Scientific Language. arXiv:2501.14073.

Notes et références

  1. 1.0 1.1 1.2 «Use role prompting with Watsonx and Granite». IBM.
  2. «Role Prompting: Guide LLMs with Persona-Based Tasks». Learn Prompting. [1]
  3. 3.0 3.1 3.2 «When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models». arXiv. [2]
  4. 4.0 4.1 «Is Role Prompting Effective?». Learn Prompting. [3]
  5. 5.0 5.1 5.2 5.3 5.4 «Persona is a Double-edged Sword: Enhancing the Zero-shot Reasoning by Ensembling the Role-playing and Neutral Prompts». arXiv. [4]
  6. 6.0 6.1 6.2 6.3 6.4 «Role Prompting: Guide LLMs with Persona-Based Tasks». Learn Prompting. [5]
  7. Shah, S., et al. (2023). «Scalable and Transferable Black-Box Jailbreaks for Language Models via Persona Modulation». ACL Anthology. [6]