Role Prompting (ES)

From Systems analysis wiki
Jump to navigation Jump to search

Prompting de rol (del inglés role prompting), también conocido como prompting de persona (del inglés persona prompting), es una técnica en el campo de la ingeniería de prompts para los modelos de lenguaje grandes (LLM), en la que al modelo se le asigna explícitamente un rol, persona o identidad de experto específico antes de realizar una tarea[1]. En otras palabras, en el texto de la solicitud o en la instrucción del sistema, se especifica que el modelo es, por ejemplo, un «maestro», un «historiador» o un «pirata», y de esta manera se establece el estilo, el tono y el comportamiento de la respuesta generada[2].

Este enfoque se utiliza ampliamente en sistemas de diálogo. Por ejemplo, el prompt del sistema estándar de ChatGPT «You are a helpful assistant» («Eres un asistente útil») establece de hecho el rol básico del modelo en la comunicación[3].

Propósito y aplicación

El objetivo del prompting de rol es dirigir al modelo hacia un estilo y enfoque de respuesta específicos, haciéndola más apropiada y contextualmente relevante para la tarea. La asignación de un rol permite establecer la tonalidad y el vocabulario adecuados para el modelo. Esto es especialmente útil en tareas creativas y abiertas, donde el rol ayuda a que el texto sea más vivo y estilísticamente diverso[4].

La técnica también se utiliza en escenarios profesionales. Por ejemplo, a un chatbot de soporte técnico se le puede asignar el rol de un representante de servicio cortés, y en sistemas multiagente, a cada agente se le asigna su propia persona (por ejemplo, «gerente», «desarrollador») para que colaboren eficazmente[1]. La flexibilidad de los LLM modernos les permite adoptar prácticamente cualquier rol, desde un personaje de ficción hasta un especialista en un campo muy específico, y generar respuestas que se correspondan al máximo con la imagen asignada[1].

Impacto en la calidad y la precisión

La cuestión de la eficacia del prompting de rol para mejorar la precisión objetiva de las respuestas sigue siendo objeto de investigación activa, y los resultados son a menudo contradictorios.

Resultados contradictorios

Por un lado, existen estudios que demuestran una mejora en los resultados. Por ejemplo, en el trabajo de Zheng et al. (2023) se descubrió que si el rol del modelo se corresponde temáticamente con la tarea, su rendimiento puede aumentar[5]. En el trabajo de Kong et al. (2024) se afirma que el prompting de rol puede mejorar el razonamiento zero-shot del modelo si se elige la persona adecuada[5].

Por otro lado, investigaciones a gran escala muestran un panorama más complejo. En un experimento sistemático con 162 roles diferentes, no se encontró una ventaja significativa en la precisión en comparación con un escenario neutral[3]. Es más, en promedio, el prompt de rol incluso disminuyó ligeramente la precisión de las respuestas[3].

El trabajo de Kim et al. (2024) describe la intervención de rol como una «espada de doble filo»: el experimento demostró que, con una instrucción de rol, el modelo GPT-4 resuelve correctamente una parte de las preguntas que antes fallaba (una mejora de ≈15,8%), pero una proporción casi igual de tareas, por el contrario, se ve «arruinada» por el rol (un empeoramiento de ≈13,8%)[5]. Esto subraya que añadir un rol no garantiza por sí solo un aumento de la calidad y puede influir de manera impredecible en el comportamiento del modelo.

Una ventaja indiscutible del prompting de rol es el control sobre el estilo y el formato de la respuesta. Aunque el rol no aporte un aumento en la precisión de los hechos, permite obtener respuestas con una tonalidad específica (amistosa, formal, instructiva), lo que las hace más coherentes y atractivas para el usuario[4].

Recomendaciones para la creación de roles

Las investigaciones ofrecen una serie de consejos prácticos para la aplicación efectiva del prompting de rol:

  • Selección del rol: Se recomienda elegir roles sociales neutrales (por ejemplo, «colega», «mentor»), evitando personajes demasiado íntimos o altamente especializados[6].
  • Formulación: Es mejor asignar el rol directamente desde la perspectiva del modelo («Eres X»), en lugar de utilizar escenarios imaginarios complejos («Imagina que eres...»). La asignación directa del personaje ha demostrado ser más efectiva[6].
  • Enfoque de dos pasos: Para solicitudes complejas, se sugiere dividir la tarea en dos pasos: primero, darle al modelo la instrucción sobre su rol y contexto, y solo después, plantear la pregunta principal. Esto permite que el modelo «adopte el personaje» primero y aumenta la estabilidad del resultado[6].

Limitaciones y riesgos

El uso del prompting de rol conlleva una serie de riesgos sistémicos.

Refuerzo de estereotipos y sesgos

Los LLM adoptan involuntariamente los estereotipos arraigados en sus datos de entrenamiento. Asignar un rol asociado con una profesión, género o nacionalidad específica puede activar y reforzar estos estereotipos en las respuestas[6]. Un estudio de Gupta et al. (2023) demostró que añadir atributos sociales (edad, etnia) al rol puede sesgar la salida del modelo y reducir significativamente la precisión del razonamiento[5]. Otro análisis (Deshpande et al., 2023) reveló que ciertas personas conducen a una mayor toxicidad en las respuestas generadas[5].

Vulnerabilidades de seguridad

Los atacantes pueden utilizar el prompting de rol para eludir las restricciones de moderación (una técnica conocida como jailbreak). Las investigaciones han demostrado que asignar una persona especial (por ejemplo, un personaje sin restricciones éticas) facilita la incitación de los LLM a realizar acciones prohibidas. Shah et al. (2023) utilizaron con éxito la cooperación de varios agentes «de rol» para eludir las restricciones del modelo, lo que demuestra una vulnerabilidad sistémica[7].

Por lo tanto, al asignar un rol a un modelo, es importante tener en cuenta los posibles sesgos y efectos no deseados inherentes a ese rol, y aplicar este método con cautela[6].

Enlaces

Bibliografía

  • Kim, J.; Yang, N.; Jung, K. (2024). Persona is a Double-edged Sword: Mitigating the Negative Impact of Role-playing Prompts in Zero-shot Reasoning Tasks. arXiv:2408.08631.
  • Kong, A. et al. (2023). Better Zero-Shot Reasoning with Role-Play Prompting. arXiv:2308.07702.
  • Zheng, M. et al. (2023). When “A Helpful Assistant” Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models. arXiv:2311.10054.
  • Shah, R. et al. (2023). Scalable and Transferable Black-Box Jailbreaks for Language Models via Persona Modulation. arXiv:2311.03348.
  • Deshpande, P. et al. (2024). Evaluating Persona-Prompted LLM Responses in Power-Disparate Health Communication. arXiv:2503.01532.
  • Xiong, F. et al. (2025). The Influence of Persona Assignment on Stereotypes and Safeguards in Chinese Large Language Models. arXiv:2506.04975.
  • Li, Y. et al. (2025). System Prompts as a Mechanism of Bias in Large Language Models. arXiv:2505.21091.
  • Wang, L. et al. (2025). Persona-Assigned Large Language Models Exhibit Human-Like Bias and Toxicity. arXiv:2506.20020.
  • Grover, K. et al. (2023). In-Context Impersonation Reveals Large Language Models’ Ability to Simulate Human Personas. PDF.
  • Verma, V. et al. (2024). Systematic Survey of Prompt Engineering in Large Language Models. arXiv:2402.07927.
  • Gupta, S. et al. (2024). Exploring the Impact of Personality Traits on LLM Bias and Toxicity. arXiv:2502.12566.
  • Safdari, M. et al. (2024). LLMs are Vulnerable to Malicious Prompts Disguised as Scientific Language. arXiv:2501.14073.

Referencias

  1. 1.0 1.1 1.2 «Use role prompting with Watsonx and Granite». IBM.
  2. «Role Prompting: Guide LLMs with Persona-Based Tasks». Learn Prompting. [1]
  3. 3.0 3.1 3.2 «When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models». arXiv. [2]
  4. 4.0 4.1 «Is Role Prompting Effective?». Learn Prompting. [3]
  5. 5.0 5.1 5.2 5.3 5.4 «Persona is a Double-edged Sword: Enhancing the Zero-shot Reasoning by Ensembling the Role-playing and Neutral Prompts». arXiv. [4]
  6. 6.0 6.1 6.2 6.3 6.4 «Role Prompting: Guide LLMs with Persona-Based Tasks». Learn Prompting. [5]
  7. Shah, S., et al. (2023). «Scalable and Transferable Black-Box Jailbreaks for Language Models via Persona Modulation». ACL Anthology. [6]