Prompt (language models) — مُوجِّه

From Systems analysis wiki
Jump to navigation Jump to search

المُوجِّه (بالإنجليزية: Prompt، ويعني «تلقين» أو «طلب نصي») في سياق نماذج اللغة الكبيرة (LLM)، هو النص المُدخَل أو التعليمات التي يقدمها المستخدم للنموذج لتوليد الاستجابة المطلوبة[1]. يقوم الموجِّه بصياغة المهمة للنموذج، متضمنًا الشروط والسياق والأمثلة الضرورية. تعتمد فعالية أداء النموذج إلى حد كبير على جودة الموجِّه المُعَد.

يُطلق على التخصص الذي يدرس أساليب تطوير وتحسين الطلبات النصية اسم هندسة الموجّهات (prompt engineering). هدفها هو الحصول على استجابات ذات صلة ودقيقة وآمنة قدر الإمكان من نماذج الذكاء الاصطناعي[2]. الموجِّه المصاغ جيدًا يحدد للنموذج "مسار" تنفيذ المهمة، مما يساعد على توضيح السياق المطلوب والنتيجة المرجوة[1].

تاريخ تطور المنهجية

تطورت فكرة التحكم في سلوك نماذج اللغة الكبيرة باستخدام التلقينات النصية بالتزامن مع نمو قدرات النماذج نفسها.

المراحل المبكرة (GPT-2)

في عام 2019، أظهر باحثو OpenAI أن نماذج اللغة الكبيرة المُدرَّبة مسبقًا، مثل GPT-2، قادرة على حل مهام جديدة دون الحاجة إلى تدريب إضافي، إذا تمت صياغة هذه المهام على شكل نص. وقد شكلت ورقة «Language Models are Unsupervised Multitask Learners» نقلة نوعية: فبدلاً من إعادة تدريب النموذج لكل مهمة، أصبح يكفي صياغة تعليمة واضحة له في المدخلات[3].

الطفرة مع GPT-3 والتعلم ضمن السياق (In-Context Learning)

حدثت الطفرة الحقيقية مع إطلاق نموذج GPT-3 في عام 2020. بفضل امتلاكه 175 مليار مُعلَمة (parameter)، أظهر GPT-3 قدرة على التعلم ضمن السياق (in-context learning) — أي استيعاب مهمة جديدة "بشكل فوري" من خلال بضعة أمثلة تُقدَّم مباشرة في نص الطلب[3]. أُطلق على هذا النمط من العمل اسم التعلم بأمثلة قليلة (few-shot learning)، وأظهر أن زيادة حجم النموذج تؤدي إلى جودة عالية في تنفيذ مهام معالجة اللغات الطبيعية دون أي تعديل على أوزان النموذج.

ظهور سلسلة الأفكار (Chain-of-Thought, CoT)

ارتبط التطور التالي في عام 2022 بتحسين قدرة النماذج على التفكير المنطقي المعقد. تم اقتراح موجّهات خاصة بصيغة سلسلة الأفكار (chain-of-thought prompting). في مثل هذه الموجّهات، لا يتلقى النموذج السؤال فقط، بل مثالاً لتفكير متسلسل وتدريجي قبل الإجابة. أدى هذا إلى زيادة دقة الحلول في المسائل الحسابية والمنطقية بشكل ملحوظ[2]. وأظهر بحث أجراه كوجيما وزملاؤه أنه يمكن تحفيز النموذج على التفكير حتى بدون أمثلة (zero-shot)، بمجرد إضافة عبارة "لنُفكّر خطوة بخطوة" في نهاية الطلب[2].

الموجّهات متعددة الوسائط

تجاوز مفهوم الموجّهات حدود النص. في عام 2022، مع ظهور نموذجي DALL-E 2 وStable Diffusion، أصبحت طلبات المستخدمين باللغة الطبيعية واجهة عالمية لتوليد الصور، ولاحقًا الموسيقى والفيديو.

أنواع وتقنيات استخدام الموجّهات

توجد عدة أنواع وتقنيات رئيسية للموجّهات، والتي غالبًا ما يتم دمجها معًا.

Zero-shot prompting - التوجيه بدون أمثلة

يتلقى النموذج التعليمات أو السؤال فقط دون أي أمثلة. في هذا الوضع، يعتمد نموذج اللغة الكبير على معرفته العامة المكتسبة أثناء التدريب المسبق. وهو مناسب للمهام البسيطة، مثل الترجمة أو تلخيص النصوص[1].

Few-shot prompting - التوجيه بأمثلة قليلة

بالإضافة إلى التعليمات، يتم تضمين مثال واحد أو أكثر في الموجِّه مع المدخلات والمخرجات المتوقعة. "يتعلم" النموذج بشكل فوري من هذه العينات ويطبق المنطق الذي استوعبه على الطلب الجديد. هذه الطريقة، التي تطبق التعلم ضمن السياق (in-context learning)، تزيد بشكل كبير من الدقة في المهام التي يكون فيها شكل أو أسلوب الإجابة محددًا ومهمًا[1].

سلسلة الأفكار (Chain-of-Thought, CoT)

نوع خاص من الموجّهات للمهام التي تتطلب تفكيرًا معقدًا (رياضيات، منطق). يتم تضمين تحليل تدريجي أو خطة حل في التلقين قبل الإجابة النهائية. هذا يجبر النموذج على هيكلة عملية التفكير بشكل صريح، مما يحسن جودة النتيجة بشكل كبير[2].

ضبط الموجّهات (Prompt Tuning)

تقنية تستخدم موجِّهًا مُحسَّنًا تلقائيًا بدلاً من كتابته يدويًا. يتم تمثيل الموجِّه كمجموعة من التوكنات الخاصة القابلة للتدريب (متجه مستمر)، والتي تُضاف إلى طلب المستخدم. من خلال تدريب هذا المتجه-الموجِّه الصغير فقط، يمكن تكييف نموذج كبير "مُجمَّد" لمهمة جديدة بأقل تكاليف حسابية[2].

هندسة الموجّهات كتخصص

ظهور المهنة

أدى نمو قدرات نماذج اللغة الكبيرة إلى ظهور تخصص جديد — مهندس الموجّهات. يقوم هؤلاء المتخصصون بتطوير وتصحيح التلقينات النصية للحصول على السلوك المطلوب من الذكاء الاصطناعي. يستخدم مهندسو الموجّهات المعرفة في مجالات اللغويات والمنطق وعلم النفس لهيكلة البيانات المدخلة بأكثر الطرق فعالية[2]. في عامي 2022–2023، ظهرت أولى الوظائف الشاغرة لهذا المنصب، مما يعكس الطلب المرتفع على مهارات التفاعل الفعال مع أنظمة الذكاء الاصطناعي.

مستقبل المهنة والأتمتة

يتطور هذا المجال بسرعة، ومستقبله موضع نقاش. أظهرت أبحاث عام 2024، على سبيل المثال من VMware، أن الذكاء الاصطناعي نفسه قادر على إيجاد صيغ فعالة للطلبات من خلال التجربة والتحسين، وغالبًا ما يتفوق على البشر[4]. أدى هذا إلى ظهور رأي مفاده أن هندسة الموجّهات اليدوية قد تكون ظاهرة مؤقتة، ومع مرور الوقت، ستصبح أدوات اختيار التلقينات التلقائية هي المعيار. ومع ذلك، حتى عام 2025، لا تزال الخبرة في مجال هندسة الموجّهات مطلوبة.

مجالات التطبيق

  • معالجة اللغات الطبيعية: مهام معالجة اللغات الطبيعية الكلاسيكية، مثل التلخيص التلقائي للمستندات، والترجمة الآلية، والإجابة على الأسئلة، واستخراج المعلومات.
  • روبوتات الدردشة والمساعدات الافتراضية: تساعد الموجّهات في تحديد الدور وأسلوب التواصل وشكل الإجابات، مما يجعل أنظمة الحوار أكثر اتساقًا وفائدة.
  • توليد الشيفرات البرمجية: نماذج، مثل OpenAI Codex، قادرة على كتابة شيفرات برمجية بناءً على وصف باللغة الطبيعية، مما يسرّع عملية التطوير.
  • تحليل البيانات: باستخدام الموجّهات، يمكن ضبط النموذج لاستخلاص رؤى من التقارير النصية غير المهيكلة أو لتوليد فرضيات.
  • التعليم: إنشاء مدرسين أذكياء يولّدون التمارين، ويشرحون المفاهيم المعقدة، ويتحققون من الإجابات مع مراعاة مستوى الطالب.
  • الصناعات الإبداعية: توليد النصوص والصور الفنية والموسيقى والسيناريوهات بناءً على وصف تفصيلي.

الاستخدام الضار ونقاط الضعف (Prompt Injection)

أدت الطبيعة المفتوحة لواجهة نماذج اللغة الكبيرة إلى ظهور فئة جديدة من الهجمات — حقن الموجّهات (prompt injection). يقوم المهاجم بصياغة طلب ضار خاص يجبر النموذج على انتهاك تعليماته الأصلية أو الكشف عن معلومات مخفية[2]. يعتبر الخبراء هذا نوعًا من هجمات "حقن الشيفرة"، حيث يتم "حقن" تعليمات نصية خبيثة في النظام بدلاً من الشيفرة البرمجية.

أنواع الهجمات

  • كسر القيود (Jailbreak): هجوم يسمح للنموذج "بالخروج" من إطار القيود المفروضة عليه (مثل سياسات الإشراف) وتوليد محتوى محظور. من الأمثلة المعروفة موجِّه DAN (Do Anything Now)، الذي كان يجبر ChatGPT على الرد دون رقابة.
  • تسريب الموجِّه (Prompt Leaking): طلب خاص يجبر النموذج على كشف أجزاء من موجِّهه النظامي المخفي.
  • تهريب التوكنات (Token Smuggling): يتم إخفاء التعليمة الضارة كجزء غير ضار من الطلب (على سبيل المثال، جزء من شيفرة برمجية) لتجاوز المرشحات وإثارة سلوك غير مرغوب فيه.

تمثل هذه الهجمات مشكلة خطيرة، لأن أساليب الأمن السيبراني التقليدية غير مهيأة بشكل جيد للتهديدات المتعلقة بتفسير اللغة الطبيعية.

مراجع للقراءة

  • Radford, A. et al. (2019). Language Models are Unsupervised Multitask Learners. PDF.
  • Brown, T. B. et al. (2020). Language Models are Few-Shot Learners. arXiv:2005.14165.
  • Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
  • Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
  • Kojima, T. et al. (2022). Large Language Models are Zero-Shot Reasoners. arXiv:2205.11916.
  • Li, X. L.; Liang, P. (2021). Prefix-Tuning: Optimizing Continuous Prompts for Generation. arXiv:2101.00190.
  • Liu, Y. et al. (2021). Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity. arXiv:2104.08786.
  • Chang, K. et al. (2024). Efficient Prompting Methods for Large Language Models: A Survey. arXiv:2404.01077.
  • Li, Z. et al. (2024). Prompt Compression for Large Language Models: A Survey. arXiv:2410.12388.
  • Genkina, D. (2024). AI Prompt Engineering Is Dead. IEEE Spectrum. [٥].
  • Li, W. et al. (2025). A Survey of Automatic Prompt Engineering: An Optimization Perspective. arXiv:2502.11560.
  • Wu, Z. et al. (2025). The Dark Side of Function Calling: Pathways to Jailbreaking Large Language Models. EMNLP 2025. PDF.


المراجع

  1. 1.0 1.1 1.2 1.3 «Prompt Engineering for AI Guide». Google Cloud. [١]
  2. 2.0 2.1 2.2 2.3 2.4 2.5 2.6 «Техника подсказок». Википедия. [٢]
  3. 3.0 3.1 Brown, Tom B., et al. «Language Models are Few-Shot Learners». arXiv:2005.14165 [cs.CL], 28 мая 2020 г. [٣]
  4. «AI Prompt Engineering Is Dead». IEEE Spectrum. [٤]