Agentic Workflows — سير العمل الوكِيلي
سير العمل الوكِيلي (Agentic Workflows) هو عبارة عن عمليات ديناميكية متعددة الخطوات، يقوم فيها وكلاء الذكاء الاصطناعي (AI agents) المستقلون القائمون على نماذج اللغة الكبيرة (LLM) باتخاذ القرارات وتنفيذ الإجراءات وتنسيق المهام بشكل مستقل وبأدنى حد من التدخل البشري[1]. في مثل هذه الأنظمة، لا يُستخدم نموذج اللغة الكبير (LLM) لتوليد استجابة لطلب واحد فحسب، بل يُستخدم أيضًا لتخطيط سلسلة من الإجراءات، والتفاعل مع الأدوات الخارجية، وتحسين النتيجة بشكل تكراري.
على عكس الأتمتة التقليدية القائمة على قواعد مبرمجة بشكل صارم، تتمتع المنهجيات الوكيلية بالمرونة، حيث يمكنها التكيف مع البيانات الجديدة والظروف غير المتوقعة. يختلف سير العمل الوكِيلي عن مجرد استدعاء نموذج لغة كبير (على سبيل المثال، لتلخيص نص) في أن الوكيل يُمنح استقلالية في اختيار الإجراءات، وهو ما يشمل التخطيط واستخدام الأدوات والتصحيح الذاتي[2].
مكونات وبنية سير العمل الوكِيلي
يجمع سير العمل الوكِيلي بين عدة مكونات رئيسية لتحقيق الهدف.
وكيل الذكاء الاصطناعي ونماذج اللغة الكبيرة (LLM)
في قلب العملية يوجد وكيل الذكاء الاصطناعي (AI agent) — وهو برنامج مستقل يعمل نيابة عن المستخدم أو النظام. المكون الرئيسي للوكيل هو نموذج اللغة الكبير، الذي يوفر فهمًا للتعليمات باللغة الطبيعية ويولد الاستدلالات اللازمة. تعتمد جودة عمل الوكيل بشكل كبير على هندسة الموجهات — حيث تساعد مخططات التوجيه المختلفة (على سبيل المثال، سلسلة الأفكار (Chain-of-Thought)) في ضبط نموذج اللغة الكبير على أسلوب العمل المطلوب[1].
الأدوات (الوصول إلى الإجراءات الخارجية)
نظرًا لأن معرفة نموذج اللغة الكبير محدودة ببيانات تدريبه، يتم تزويد الوكيل بأدوات خارجية لتوسيع قدراته. يمكن أن تشمل الأدوات الوصول إلى قواعد المعرفة، ومحركات البحث، وواجهات برمجة التطبيقات (API)، ومفسرات الأكواد، وغيرها من التطبيقات. بمساعدتها، يحصل الوكيل على معلومات محدّثة أو ينفذ إجراءات حقيقية خارج النموذج نفسه[2].
الذاكرة والسياق
من السمات المميزة لسير العمل الوكِيلي وجود آلية ذاكرة تسمح للوكيل بأخذ الخبرة السابقة والسياق في الاعتبار.
- الذاكرة قصيرة المدى: تحتفظ بالمعلومات الحديثة (مثل سجل الحوار) ضمن الجلسة الحالية.
- الذاكرة طويلة المدى: تخزن المعرفة والنتائج المتراكمة عبر العديد من عمليات التشغيل، وغالبًا ما تستخدم وحدات تخزين خارجية (مثل قواعد البيانات المتجهية)[3].
التغذية الراجعة والتصحيح
تلعب آليات التغذية الراجعة دورًا مهمًا في زيادة الموثوقية. يمكن للوكيل تلقي التغذية الراجعة (feedback) من بيئة تنفيذ المهمة، أو من نموذج مساعد "ناقد"، أو من الإنسان (وضع human-in-the-loop). على سبيل المثال، يُنفّذ نظام Reflexion تغذية راجعة ذاتية داخلية: حيث يقوم الوكيل بتحليل أخطائه ويحفظ "تأملاته" في الذاكرة لتحسين المحاولات اللاحقة[4].
التكوينات متعددة الوكلاء
في السيناريوهات المعقدة، تُستخدم بنية متعددة الوكلاء، حيث يتفاعل العديد من الوكلاء المتخصصين مع بعضهم البعض. على سبيل المثال، يقوم وكيل "المخطط" بتحديد المهام الفرعية، بينما يقوم العديد من وكلاء "المنفذين" بحل مهامهم المحددة (البحث عن البيانات، الحساب، إلخ)[1].
الأنماط والخوارزميات النموذجية لعمل الوكلاء
على الرغم من عدم وجود بنية معيارية موحدة لأنظمة الوكلاء القائمة على نماذج اللغة الكبيرة حتى الآن، بدأت أنماط متكررة في الظهور في الفترة 2023-2024[5].
- التخطيط خطوة بخطوة (Prompt Chaining). يتم تقسيم المهمة إلى سلسلة من المراحل باستخدام سلسلة من استدعاءات نماذج اللغة الكبيرة. تتلقى كل خطوة نتيجة الخطوة السابقة كمدخل وتنفذ جزءًا من المهمة الإجمالية. يحسن هذا النهج قابلية التفسير، ولكنه أقل مرونة.
- التوجيه واختيار الأداة (Router Pattern). يقوم الوكيل أولاً بتصنيف نوع المهمة المدخلة، ثم يختار عملية أو أداة خاصة لحلها، ويعمل كـ "مُوَزِّع".
- البحث الموازي عن الحلول. بدلاً من مسار فكري خطي واحد، يتم استكشاف العديد من خيارات الحل في وقت واحد. ومن الأمثلة على ذلك نهج شجرة الأفكار (Tree-of-Thoughts)، حيث يقوم الوكيل بتفريع سلسلة الاستدلالات مثل الشجرة، ويولد في كل خطوة عدة "أفكار" مرشحة ويختار الأكثر واعدة منها[6].
- التأمل والتصحيح الذاتي. يقوم الوكيل بتقييم قراراته بشكل نقدي ويتعلم من أخطائه. في طريقة Reflexion، يقوم الوكيل بعد كل محاولة بتحليل النتيجة وحفظ الاستنتاجات التي يستخدمها في الدورات اللاحقة[4].
أمثلة على المنهجيات المعروفة
- ReAct (Reasoning and Acting) — منهجية أساسية (2022) تجمع بين الاستدلال والفعل. يقوم نموذج اللغة الكبير بتوليد استنتاجات منطقية (thoughts) وخطوات عمل محددة (actions) بشكل متداخل، والتي يتم تنفيذها باستخدام الأدوات[7].
- Reflexion (2023) — إطار عمل للتأمل الذاتي يسمح للوكلاء بالتعلم من أخطائهم عبر التغذية الراجعة النصية، دون تحديث أوزان النموذج[4].
- شجرة الأفكار (Tree-of-Thoughts - ToT) (2023) — إطار عمل يعمم فكرة سلسلة الأفكار (Chain-of-Thought) لتنظيم البحث عن حل على شكل شجرة، مما يسمح للنموذج بالتفكير في عدة مسارات محتملة للأحداث[6].
- Auto-GPT (2023) — أحد أوائل المشاريع المفتوحة المعروفة على نطاق واسع التي تعرض سير عمل وكيلي مستقل تمامًا. يقوم النظام بتوليد مجموعة من وكلاء GPT-4 المتخصصين الذين يخططون وينفذون الخطوات بشكل مشترك لتحقيق هدف عالي المستوى يحدده المستخدم[3].
التطبيقات والتأثير
تجد المنهجيات الوكيلية تطبيقات في العديد من المجالات التي تتطلب أتمتة ذكية ومرونة.
- عمليات الأعمال: توسع الأنظمة الوكيلية من قدرات روبوتات الدردشة للدعم الفني، التي يمكنها تشخيص المشكلات وإيجاد الحلول بشكل مستقل. كما أنها تستخدم في التمويل وإدارة الموارد البشرية والتسويق[1].
- المحاكاة التوليدية: يمكن لوكلاء نماذج اللغة الكبيرة المستقلين محاكاة السلوك المعقد للمجتمعات أو الشخصيات. في دراسة "الوكلاء التوليديون" (Generative Agents) (Park et al., 2023)، قامت عشرات من وكلاء GPT، الممنوحين شخصيات مختلفة، بمحاكاة الحياة الاجتماعية بشكل واقعي في مدينة مصغرة.
وفقًا لتقديرات محللي Gartner، تم إدراج الذكاء الاصطناعي الوكِيلي (Agentic AI) ضمن الاتجاهات التكنولوجية الاستراتيجية لعام 2025[1].
التحديات وآفاق التطور
على الرغم من النجاحات المحققة، لا تزال أنظمة الوكلاء القائمة على نماذج اللغة الكبيرة تقنية جديدة ومعقدة.
- تكاليف الموارد: كل خطوة إضافية في التخطيط أو البحث أو التحليل الذاتي هي استدعاء منفصل لنموذج اللغة الكبير، مما يزيد من وقت التنفيذ والتكلفة.
- عدم القدرة على التنبؤ بالسلوك: كلما زادت حرية الوكيل، أصبح من الصعب ضمان المسار الذي سيختاره. وهذا يتطلب تطبيق قيود وآليات حماية (guardrails).
- تقييم الجودة وتصحيح الأخطاء: يعد تحليل السجلات الواسعة للأنظمة متعددة الخطوات للعثور على الأخطاء مهمة غير بسيطة.
- الأمان والأخلاقيات: مع زيادة استقلالية الذكاء الاصطناعي، تبرز الحاجة إلى ضمان أن الوكلاء يعملون بما يخدم مصلحة المستخدم والمجتمع.
تهدف الأبحاث المستقبلية إلى إنشاء وسائل عالمية لاستخدام الأدوات، وتطوير مسارات عمل موحدة متكاملة، وتحسين كفاءة الأنظمة الوكيلية[8].
روابط خارجية
المراجع
- Yao, S. et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629.
- Schick, T. et al. (2023). Toolformer: Language Models Can Teach Themselves to Use Tools. arXiv:2302.04761.
- Liu, X. et al. (2023). AgentBench: Evaluating LLMs as Agents. arXiv:2308.03688.
- Yao, S. et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. arXiv:2305.10601.
- Shinn, N. et al. (2023). Reflexion: Language Agents with Verbal Reinforcement Learning. arXiv:2303.11366.
- Park, J. S. et al. (2023). Generative Agents: Interactive Simulacra of Human Behavior. arXiv:2304.03442.
- Wang, G. et al. (2023). Voyager: An Open-Ended Embodied Agent with Large Language Models. arXiv:2305.16291.
- Bakhtin, A. et al. (2022). Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning. Science. DOI:10.1126/science.ade9097.
- Wang, L. et al. (2025). A Survey on Large Language Model based Autonomous Agents. arXiv:2308.11432.
- Li, X. (2024). A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components. arXiv:2406.05804.
- Jung, J. et al. (2024). Trust or Escalate: LLM Judges with Provable Guarantees for Human Agreement. arXiv:2407.18370.
- Xu, W. et al. (2025). A-MEM: Agentic Memory for LLM Agents. arXiv:2502.12110.
- He, G. et al. (2025). Plan-Then-Execute: An Empirical Study of User Trust and Team Performance When Using LLM Agents as a Daily Assistant. arXiv:2502.01390.
- Huang, X. et al. (2024). Understanding the Planning of LLM Agents: A Survey. arXiv:2402.02716.
- Kuang, Z. et al. (2023). PEARL: Prompting Large Language Models to Plan and Execute Reasoning over Long Documents. arXiv:2305.14564.
الملاحظات
- ↑ 1.0 1.1 1.2 1.3 1.4 «What are Agentic Workflows?». IBM. [١]
- ↑ 2.0 2.1 «What Are Agentic Workflows? Patterns, Use Cases, Examples, and More». Weaviate. [٢]
- ↑ 3.0 3.1 «What is AutoGPT?». IBM. [٣]
- ↑ 4.0 4.1 4.2 Shinn, N. et al. «Reflexion: Language Agents with Verbal Reinforcement Learning». arXiv:2303.11366, 2023. [٤]
- ↑ «Agentic Workflows in 2025: The ultimate guide». Vellum.ai. [٥]
- ↑ 6.0 6.1 Yao, S. et al. «Tree of Thoughts: Deliberate Problem Solving with Large Language Models». arXiv:2305.10601, 2023. [٦]
- ↑ Yao, S. et al. «ReAct: Synergizing Reasoning and Acting in Language Models». arXiv:2210.03629, 2022. [٧]
- ↑ Li, X. «A Survey on LLM-Based Agentic Workflows and LLM-Profiled Components». arXiv:2406.05804, 2024. [٨]