Self-consistency prompting — توجيه الاتساق الذاتي

From Systems analysis wiki
Jump to navigation Jump to search

توجيه الاتساق الذاتي (بالإنجليزية: Self-Consistency Prompting، ويُختصر إلى SC) هو أسلوب أو استراتيجية لفك التشفير في هندسة الموجهات، مصمم لزيادة دقة وموثوقية نماذج اللغة الكبيرة (LLM) عند حل المشكلات التي تتطلب تفكيرًا متعدد الخطوات، مثل الألغاز الحسابية والمنطقية[1]. اقترح هذا الأسلوب باحثون من Google Research في عام 2022 كتحسين لتقنية «سلسلة الفكر» (Chain-of-Thought, CoT).

الفكرة الأساسية هي عدم الاقتصار على استنتاج «جشع» واحد، بل توليد مسارات تفكير متنوعة لنفس السؤال، ثم اختيار الإجابة النهائية الأكثر شيوعًا بين هذه المسارات. يعتمد هذا النهج على مبدأ بديهي: إذا توصل النموذج بشكل متكرر إلى نفس النتيجة عبر مسارات تفكير مختلفة، فمن المرجح جدًا أن تكون هذه النتيجة صحيحة[1].

السياق والخلفية

يُعد أسلوب Self-Consistency تطورًا مباشرًا لتقنية Chain-of-Thought (CoT). وقد حسّنت تقنية CoT، التي اقترحها Wei وآخرون (2022)، بشكل كبير من قدرة نماذج اللغة الكبيرة على حل المشكلات المعقدة من خلال حث النموذج على تفصيل خطوات الحل بشكل صريح[2]. ولكن، في التنفيذ الأساسي لـ CoT، يُستخدم «فك التشفير الجشع» (greedy decoding)، حيث يتم في كل خطوة اختيار التوكن التالي الأكثر احتمالًا. وهذا يخلق قيدًا: إذا ارتكب النموذج خطأ في مرحلة مبكرة، فلا يمكنه الانحراف عن هذا المسار الخاطئ وتصحيحه. وقد تم اقتراح Self-Consistency لمعالجة هذه المشكلة تحديدًا[1].

آلية العمل

تستبدل خوارزمية Self-Consistency النهج الجشع الحتمي بإجراء «أخذ العينات ثم التجميع»، وتتكون من الخطوات التالية[1]:

  1. توليد مسارات تفكير متعددة: بدلاً من إجابة واحدة، يقوم النموذج بتوليد حل لنفس الطلب عدة مرات (على سبيل المثال، حتى 40 مرة) باستخدام أسلوب سلسلة الفكر. وللحصول على مسارات تفكير متنوعة، يتم تطبيق أساليب فك التشفير العشوائية، مثل أخذ العينات بالحرارة (temperature sampling) (بمعامل حرارة > 0).
  2. تجميع واختيار الإجابة: من جميع سلاسل التفكير التي تم إنشاؤها، يتم استخلاص الإجابات النهائية فقط (مثل قيمة عددية). ثم يتم اختيار الإجابة الأكثر تكرارًا من بينها. وهذه الإجابة هي التي تُعتمد كالنتيجة النهائية.

يحاكي هذا النهج مبدأ «التجميع الذاتي» (self-ensembling)، حيث تُستخدم مخرجات متعددة من نفس النموذج لزيادة الموثوقية وتخفيف الأخطاء العشوائية[3].

الفعالية والنتائج

في الدراسة الأصلية، أظهر أسلوب Self-Consistency زيادة كبيرة في الدقة على عدد من مؤشرات الأداء (benchmarks) الشائعة، خاصة في المهام التي تتطلب استدلالًا حسابيًا ومنطقيًا.

  • على مؤشر الأداء للمسائل الرياضية GSM8K، ارتفعت دقة نموذج PaLM-540B من 56.6% (مع CoT) إلى 74.4% (مع Self-Consistency)، مما يمثل زيادة قدرها 17.8%.
  • في مهام حسابية أخرى، مثل SVAMP وAQuA، بلغت الزيادة +11.0% و+12.2% على التوالي.
  • في المهام التي تتطلب المنطق والفهم العام، مثل StrategyQA، بلغ التحسن +6.4%[1].

أتاح تطبيق Self-Consistency تسجيل أرقام قياسية جديدة في الأداء (state-of-the-art) على العديد من مؤشرات الأداء عند استخدام نماذج كبيرة مثل GPT-3 175B وPaLM 540B[1].

المزايا والقيود

المزايا

  • زيادة الدقة: يحسن بشكل كبير النتائج في المهام التي تتطلب استدلالًا معقدًا متعدد الخطوات.
  • الموثوقية: الأسلوب أكثر مقاومة للأخطاء التي قد تحدث في سلسلة تفكير واحدة.
  • سهولة التنفيذ: لا يتطلب تدريبًا إضافيًا أو تعديلًا في بنية النموذج. يمكن تنفيذ الأسلوب كـ«غلاف» بسيط حول نموذج موجود بالفعل.

القيود

  • تكاليف حسابية عالية: العيب الرئيسي هو الحاجة إلى توليد الإجابة عدة مرات (على سبيل المثال، 10 أو 20 أو 40 مرة) لطلب واحد، مما يزيد بشكل متناسب من تكلفة ووقت الاستدلال.
  • قابلية تطبيق محدودة: يكون الأسلوب القياسي أكثر فعالية للمهام ذات تنسيق إجابة محدد بوضوح (مثل رقم، «نعم/لا»، خيار من قائمة)، حيث يكون من السهل إجراء تصويت بالأغلبية. وهو أقل قابلية للتطبيق في مهام التوليد المفتوح (كتابة مقال، تلخيص)، حيث تكون الإجابات فريدة في شكلها.
  • خطر الخطأ المنهجي: إذا كان النموذج يولد بشكل منهجي استدلالات غير صحيحة تتلاقى عن طريق الصدفة عند نفس الإجابة الخاطئة، فإن Self-Consistency لن يصحح الخطأ فحسب، بل سيعزز الثقة فيه.

Universal Self-Consistency - الاتساق الذاتي العالمي

تمت معالجة محدودية الأسلوب الأساسي في المهام ذات الإجابات الحرة في أبحاث لاحقة. في أواخر عام 2023، اقترحت مجموعة من الباحثين من Google DeepMind نهج Universal Self-Consistency (USC)[4].

في USC، بدلاً من التصويت البسيط على الإجابات النهائية للتجميع، يتم استخدام نموذج اللغة الكبير نفسه كـ«حكم». يولد النموذج عدة حلول كاملة، ثم يتلقى موجّهًا جديدًا يطلب منه اختيار الإجابة «الأكثر اتساقًا» أو «الأعلى جودة» من بينها. يتيح هذا النهج تطبيق مبادئ الاتساق الذاتي على المهام ذات الإجابات المفتوحة والإبداعية[5].

روابط خارجية

إصدارات

  • Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
  • Wei, J. et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
  • Aggarwal, P. et al. (2023). Let’s Sample Step by Step: Adaptive-Consistency for Efficient Reasoning and Coding with LLMs. arXiv:2305.11860.
  • Chen, X. et al. (2023). Universal Self-Consistency with Large Language Models. arXiv:2311.17311.
  • Knappe, T. et al. (2024). Semantic Self-Consistency: Enhancing Language Model Reasoning via Semantic Weighting. arXiv:2410.07839.
  • Liang, X. et al. (2024). Internal Consistency and Self-Feedback in Large Language Models: A Survey. arXiv:2407.14507.
  • Li, T. et al. (2024). Improving Faithfulness of Large Language Models in Summarization via Sliding Generation and Self-Consistency. arXiv:2407.21443.
  • Byerly, A.; Khashabi, D. (2024). How Effective Is Self-Consistency for Long-Context Problems?. arXiv:2411.01101.
  • Novikova, J. et al. (2025). Consistency in Language Models: Current Landscape, Challenges, and Future Directions. arXiv:2505.00268.
  • Admoni, S. et al. (2025). Towards Large Language Models with Self-Consistent Natural Language Explanations. arXiv:2506.07523.

المراجع

  1. 1.0 1.1 1.2 1.3 1.4 1.5 Wang, X., Wei, J., Schuurmans, D., et al. (2022). «Self-Consistency Improves Chain of Thought Reasoning in Language Models». arXiv. [١]
  2. Wei, J., Wang, X., Schuurmans, D., et al. (2022). «Chain-of-Thought Prompting Elicits Reasoning in Large Language Models». NeurIPS 2022.
  3. «Self-Consistency Improves Chain of Thought Reasoning in Language Models - Summary». Portkey. [٢]
  4. Chen, X., et al. (2023). «Universal Self-Consistency with Large Language Models». arXiv. [٣]
  5. «Universal Self-Consistency with Large Language Models». Google DeepMind Publications. [٤]