Prompt and context — الموجه والسياق
المُوجِّه والسياق هما مفهومان أساسيان في هندسة الموجهات لـنماذج اللغة الكبيرة (LLM).
يُعد السياق مكونًا بالغ الأهمية في الموجه، حيث يحدد قدرة نموذج اللغة الكبير على توليد استجابات دقيقة وذات صلة ومفيدة. وتكمن هندسة الموجهات الفعالة إلى حد كبير في فن جمع السياق الصحيح وتصفيته وهيكلته وتقديمه للنموذج في اللحظة المناسبة، مع التغلب في الوقت نفسه على قيود نماذج اللغة الكبيرة الحديثة.
Prompt - تعريف المُوجِّه
المُوجِّه (بالإنجليزية: prompt) هو المجموعة الكاملة من بيانات الإدخال التي يتم تقديمها لنموذج اللغة الكبير (LLM) لتوليد استجابة. وهو ليس مجرد سؤال أو أمر، بل نص منظم يمكن أن يتضمن:
- التعليمات: توجيهات مباشرة للنموذج حول ما يجب القيام به، وبأي تنسيق أو أسلوب أو نبرة.
- الاستعلام الأساسي (Query): سؤال المستخدم المباشر أو وصف للمهمة الرئيسية.
- السياق: معلومات إضافية ضرورية لتنفيذ الاستعلام بشكل صحيح.
- الأمثلة (Few-shot examples): عرض للتنسيق أو الأسلوب المطلوب للإجابة على مهام مماثلة.
تحدد جودة واكتمال الموجه بشكل مباشر مدى صلة ودقة وفائدة استجابة نموذج اللغة الكبير.
Context - تعريف السياق
السياق في إطار هندسة الموجهات هو أي معلومات داخل المُوجِّه تساعد النموذج على فهم المهمة أو تفاصيل الموقف أو توقعات المستخدم بشكل أفضل، ولكنه ليس جزءًا من بيانات التدريب الأصلية للنموذج. يوفر السياق التفاصيل الظرفية اللازمة لتوليد استجابة مناسبة.
يمكن أن يشمل السياق:
- سجل الحوار السابق (في روبوتات الدردشة).
- البيانات المسترجعة من مصادر خارجية (مستندات، قواعد بيانات، صفحات ويب) — وهو أساس RAG.
- معلومات حول المستخدم (الملف الشخصي، التفضيلات).
- تفاصيل محددة للمهمة أو الموقف الحالي.
- أمثلة على تنفيذ مهام مماثلة (كجزء من التوجيه بأمثلة قليلة - few-shot prompting).
من المهم التمييز بين السياق المقدم في الموجه والمعرفة العامة التي اكتسبها النموذج أثناء تدريبه المسبق. تركز هندسة الموجهات على التقديم الفعال للسياق الظرفي تحديدًا.
العلاقة المتبادلة والتأثير
المُوجِّه والسياق هما مفهومان أساسيان في عمل نماذج المُحوِّل (Transformers)، حيث يحددان كيفية إدراك النموذج لبيانات الإدخال وعلى أي أساس يولد النتيجة. من الناحية المعمارية، لا يميز نموذج المُحوِّل بشكل خاص بين "الموجه" و"السياق" — فكلاهما جزء من تسلسل الرموز (tokens) المدخلة، والتي يتم تحويلها إلى تضمينات (embeddings)، وإثراؤها بمعلومات موضعية، ومعالجتها بشكل جماعي بواسطة طبقات الانتباه الذاتي.
الموجه والسياق مرتبطان ارتباطًا وثيقًا: السياق هو جزء مكون للمُوجِّه.
- السياق يشكل الموجه: يقوم المهندس باختيار وهيكلة السياق ذي الصلة لتضمينه في الموجه.
- السياق يوجه النموذج: تسمح المعلومات المقدمة لنموذج اللغة الكبير بتضييق نطاق الإجابات الممكنة، والتركيز على الجوانب ذات الصلة، وتجنب الهلوسات.
- جودة السياق تحدد جودة الإجابة: يؤدي السياق غير الكافي أو غير ذي الصلة أو المتناقض إلى إجابات غير دقيقة أو عامة أو خاطئة. أما السياق الدقيق والكامل فيزيد من خصوصية وفائدة التوليد.
- التأثير على تفسير التعليمات: يمكن للسياق توضيح أو تغيير تفسير التعليمات العامة في الموجه.
تعتمد فعالية الموجه إلى حد كبير على مدى نجاح المهندس في جمع وتصفية وتقديم السياق المناسب للنموذج.
أنواع السياق
يمكن تصنيف السياق حسب معايير مختلفة:
حسب المصدر:
- مقدم من المستخدم: إدخال صريح من المستخدم، سؤاله أو وصف المهمة.
- من سجل الحوار: الرسائل السابقة للمستخدم والمساعد (ذاكرة قصيرة المدى).
- مسترجع (Retrieved): بيانات من مصادر خارجية (مستندات، قواعد بيانات، ويب) باستخدام RAG.
- من الملف الشخصي/قاعدة المعرفة: معلومات طويلة المدى حول المستخدم أو المجال.
- ثابت/إرشادي: معلومات يضعها المهندس في قالب الموجه (تعليمات، أمثلة، تعريفات للأدوار).
حسب الديناميكية:
- سياق ثابت: جزء غير متغير من الموجه (تعليمات، تعريفات، أمثلة). يحدد المهمة العامة.
- سياق ديناميكي: معلومات تتغير من استعلام إلى آخر (بيانات المستخدم، نتائج RAG، الوقت الحالي). يوفر تفاصيل محددة.
حسب مدة التخزين (الذاكرة):
- سياق قصير المدى: سجل جلسة الحوار الحالية.
- سياق طويل المدى: بيانات محفوظة حول المستخدم أو التفاعلات السابقة، تتطلب آليات تخزين واسترجاع.
إدارة السياق
تعد الإدارة الفعالة للسياق مهمة رئيسية في هندسة الموجهات، خاصة في ظل قيود نافذة السياق لنماذج اللغة الكبيرة. الطرق الرئيسية تشمل:
- RAG: الطريقة الأكثر شيوعًا للتعامل مع كميات كبيرة من المعلومات. تسمح بالعثور ديناميكيًا على الأجزاء الأكثر صلة فقط من قاعدة معرفية واسعة وتضمينها في الموجه. تتطلب وجود قاعدة بيانات متجهية وآليات بحث فعالة (معجمية أو دلالية).
- التقطيع (Chunking): تقسيم المستندات الكبيرة إلى أجزاء مرتبطة دلاليًا أو ذات حجم ثابت للفهرسة والاسترجاع لاحقًا عبر RAG.
- التلخيص: ضغط سجل الحوار الطويل أو المستندات الضخمة لنقل المعنى الأساسي ضمن نافذة سياق محدودة.
- إدارة الذاكرة (Memory Management): استخدام استراتيجيات مختلفة لتخزين واسترجاع سجل الحوار في روبوتات الدردشة والوكلاء (مثل ConversationBufferMemory, ConversationSummaryBufferMemory في LangChain).
- النافذة المنزلقة (Sliding Window): الاحتفاظ فقط بآخر N رسالة من الحوار في السياق.
- الترشيح وتحديد الأولويات: اختيار الأجزاء الأكثر صلة من السياق بناءً على أهميتها (على سبيل المثال، باستخدام درجات الصلة التي تم الحصول عليها أثناء البحث) قبل تجميع الموجه النهائي.
دور السياق في هندسة الموجهات
- زيادة الصلة: يسمح السياق للنموذج بتوليد إجابات تتوافق بدقة مع استعلام المستخدم وموقفه.
- تقليل الهلوسات: تقديم معلومات واقعية (عبر RAG) يجبر النموذج على الاعتماد عليها بدلاً من اختلاق الحقائق.
- التخصيص: سياق المستخدم (التفضيلات، السجل) يسمح بتكييف الإجابات.
- إدارة الحالة: في الحوارات والعمليات متعددة الخطوات، يضمن السياق (السجل) الاستمرارية وعي النموذج بالخطوات السابقة.
- التغلب على قيود معرفة النموذج: يسمح RAG للنموذج بالإجابة على أسئلة حول أحداث وقعت بعد تدريبه، أو حول بيانات محددة/خاصة.
القيود
- حد نافذة السياق: على الرغم من زيادتها إلى 1-2 مليون رمز في النماذج الحديثة، إلا أن معالجة هذه الأحجام قد تكون مكلفة وبطيئة. يتطلب استراتيجيات فعالة للضغط والاختيار (RAG، التلخيص).
- البحث عن السياق الملائم: تعتمد فعالية RAG على جودة البحث. يمكن للسياق المسترجع بشكل غير صحيح أن يربك النموذج ("مدخلات سيئة تؤدي إلى مخرجات سيئة").
- "وادي اللامبالاة" (Valley of Meh): قد يتجاهل النموذج المعلومات الموجودة في منتصف الموجه الطويل جدًا. يتطلب ذلك هيكلة الموجه (على سبيل المثال، "تقنية الساندويتش").
- خطر حقن السياق: إذا تم استرجاع السياق من مصادر غير موثوقة (مثل صفحات الويب)، فقد يحتوي على تعليمات ضارة (حقن الموجهات - prompt injections).
المراجع
- Lewis, P. et al. (2020). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. arXiv:2005.11401.
- Wei, J. et al. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
- Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
- Kojima, T. et al. (2022). Large Language Models are Zero-Shot Reasoners. arXiv:2205.11916.
- Chen, S. et al. (2023). Extending Context Window of Large Language Models via Positional Interpolation. arXiv:2306.15595.
- Schick, T. et al. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. arXiv:2302.04761.
- Besta, M. et al. (2023). Graph of Thoughts: Solving Elaborate Problems with Large Language Models. arXiv:2308.09687.
- Packer, C. et al. (2023). MemGPT: Towards LLMs as Operating Systems. arXiv:2310.08560.
- Wang, Y. et al. (2023). Self-Instruct: Aligning Language Models with Self-Generated Instructions. arXiv:2212.10560.
- Sahoo, P. et al. (2024). A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications. arXiv:2402.07927.
- Kim, S. H. et al. (2024). Theanine: Revisiting Memory Management in Long-term Conversations with Timeline-augmented Response Generation. arXiv:2406.10996.
- Chen, S. et al. (2024). StruQ: Defending Against Prompt Injection with Structured Queries. arXiv:2402.06363.
- Zhong, M. et al. (2024). Understanding the RoPE Extensions of Long-Context LLMs: An Attention Perspective. arXiv:2406.13282.
- Han, H. et al. (2025). Retrieval-Augmented Generation with Graphs (GraphRAG). arXiv:2501.00309.
- Self-Instruct (2025). Aligning Language Models with Self-Generated Instructions. arXiv:2212.10560.
انظر أيضًا
- نماذج اللغة الكبيرة
- نافذة السياق
- قواعد البيانات المتجهية
- LangChain