Retrieval-augmented generation (RAG) — التوليد المعزز بالاسترجاع (RAG)
Retrieval-Augmented Generation (RAG) (بالعربية: التوليد المعزز بالاسترجاع) — هو أسلوب في مجال الذكاء الاصطناعي يتم فيه تزويد نموذج لغة كبير (LLM) بالوصول إلى مصادر معلومات خارجية لتحسين دقة وموثوقية الإجابات. بعبارة أخرى، يقوم النموذج قبل توليد الإجابة بتنفيذ بحث عن البيانات ذات الصلة (على سبيل المثال، في قاعدة بيانات المستندات، أو موقع ويب، أو قاعدة بيانات) ويستخدم المعلومات التي تم العثور عليها عند صياغة الإجابة[1][2]. يضمن هذا النهج "تعزيز" المعرفة من مصادر محدّثة ويساعد على التغلب على قيود نماذج اللغة الكبيرة (LLMs) نفسها، المرتبطة بحجم "الذاكرة" المحدود والمعلومات القديمة[3]. نظام RAG قادر على الإشارة إلى مستندات محددة (على سبيل المثال، في شكل حواشٍ) في الإجابة المولدة، مما يزيد من الشفافية ويسمح للمستخدم بالتحقق من الحقائق[1]. نتيجة لذلك، ينخفض خطر ظهور الهلوسات — وهي الحالات التي يقدم فيها النموذج معلومات غير صحيحة بثقة[1][3]. يوسع RAG قاعدة معارف LLM إلى حجم غير محدود تقريبًا ويسمح للنماذج باستخدام أحدث البيانات دون إعادة تدريب[4].
أصول المنهج وتطوره
نشأت فكرة الجمع بين استرجاع المعلومات والتوليد التلقائي للإجابات قبل ظهور نماذج اللغة الكبيرة (LLMs) الحديثة بوقت طويل. ففي السبعينيات من القرن الماضي، جرت محاولات لإنشاء أنظمة الإجابة على الأسئلة (question-answering) التي تبحث عن إجابات في قواعد البيانات النصية بناءً على سؤال محدد[1]. وفي التسعينيات، ظهرت خدمة الويب Ask Jeeves التي شاعت البحث عن إجابات باللغة الطبيعية، وفي عام 2011، أظهر نظام IBM Watson قدرات الذكاء الاصطناعي بفوزه في البرنامج التلفزيوني Jeopardy! على المشاركين البشر[1].
يرتبط العصر الحديث للتطوير بظهور نماذج اللغة العصبية: تم اقتراح التوليد المعزز بالاسترجاع كنهج مستقل في عام 2020 من قبل مجموعة من الباحثين من Facebook AI Research وكلية لندن الجامعية وغيرهم، بقيادة باتريك لويس[1]. في عملهم، الذي تم قبوله في مؤتمر NeurIPS 2020، وُصف نموذج RAG — وهو نموذج توليدي من نوع تسلسل-إلى-تسلسل (seq2seq) (مثل BART) مع وصول قابل للتفاضل إلى مخزن معرفة خارجي "غير حدودي"[5]. استخدم المؤلفون ويكيبيديا الإنجليزية بأكملها كقاعدة معرفة خارجية، وقدموها على شكل فهرس متجهي (حوالي 21 مليون جزء نصي)، يتم البحث فيه باستخدام خوارزمية عصبية تسمى Dense Passage Retrieval[5]. بالنسبة للاستعلام الوارد، يستخرج نموذج RAG المقاطع الأكثر ملاءمة من الفهرس ويضيفها إلى سياق توليد الإجابة. أتاحت هذه الآلية تحقيق نتائج قياسية جديدة (state-of-the-art) في المهام ذات قاعدة المعرفة المفتوحة، مثل اختبارات Natural Questions وWebQuestions وغيرها[2]. لوحظ أن إجابات نموذج RAG كانت أكثر تحديدًا وصحة من الناحية الواقعية من الأساليب التوليدية السابقة، وذلك بفضل تجميع المعلومات من عدة مصادر في آن واحد[2]. سرعان ما نشر فيسبوك الكود المصدري لـ RAG بشكل مفتوح: تم دمج النموذج في مكتبة HuggingFace Transformers ومجموعة البيانات المرتبطة بها، مما سمح للمطورين بتطبيق RAG بسهولة في مشاريعهم[2]. منذ عام 2020، اكتسبت تقنية RAG شعبية سريعة — ووفقًا للمؤلف، على الرغم من الاختصار غير الرنان، فقد انتشر النهج على نطاق واسع، وأدى إلى ظهور مئات الأوراق العلمية وأصبح أساسًا للعديد من الخدمات التجارية[1].
مبدأ عمل RAG
المخطط المبدئي للتوليد المعزز بالاسترجاع: تقوم وحدة البحث (إلى اليسار) باسترداد المستندات ذات الصلة من قاعدة المعرفة، وبعد ذلك يقوم النموذج التوليدي (إلى اليمين) بتكوين إجابة بناءً على استعلام المستخدم مع مراعاة المعلومات التي تم العثور عليها[6]. يسمح هذا النهج لنموذج اللغة الكبير بالاعتماد على بيانات خارجية محدثة عند توليد الإجابة. يوضح الرسم البياني كيف يتم تحويل استعلام المستخدم إلى متجه واستخدامه للبحث عن أجزاء نصية مشابهة؛ ثم يتم ربطها بسياق النموذج، مما "يوسع" معرفته ويزيد من دقة الإجابة.
يتكون نظام RAG عادةً من مكونين رئيسيين: وحدة البحث (retriever) ووحدة توليد الإجابة (generator)[6]. في مرحلة الإعداد، يتم بناء فهرس متجهي لقاعدة المعرفة: يتم تقسيم جميع المستندات (النصوص) إلى أجزاء وتحويلها بواسطة نموذج التضمين (embedding) إلى متجهات رقمية، والتي يتم حفظها في قاعدة بيانات متخصصة للبحث اللاحق[6]. عند وصول استعلام المستخدم، يقوم نفس نموذج التضمين بترميز الاستعلام إلى متجه؛ ثم يتم البحث عن أقرب الجيران في الفضاء المتجهي – يتم اختيار أفضل K من الأجزاء الأكثر تشابهًا من فهرس المعرفة (على سبيل المثال، K = 5)[6]. تعتبر هذه الأجزاء سياقًا خارجيًا يحتوي على حقائق محتملة حول موضوع الاستعلام.
في المرحلة التالية، يتم استخدام السياق الذي تم تكوينه بواسطة النموذج التوليدي. يتم تقديم السؤال الأصلي مع الأجزاء النصية التي تم العثور عليها كمدخل لنموذج اللغة الكبير (على سبيل المثال، محول من نوع seq2seq أو نموذج موجه بالتعليمات) من أجل توليد الإجابة النهائية[2]. وبالتالي، يعتمد النموذج اللغوي بشكل مشروط ليس فقط على معرفته المكتسبة (الحدودية)، ولكن أيضًا على البيانات الخارجية المقدمة له. في التنفيذ الأصلي لـ RAG، كان نموذج BART المدرب مسبقًا هو المولد، وكانت "الذاكرة" الخارجية ممثلة بمجموعة ويكيبيديا، المفهرسة بطريقة DPR[5].
نهج الدمج (Fusion) لتجميع المعرفة
من السمات المهمة لـ RAG الطريقة التي يجمع بها النموذج المعلومات من عدة مستندات تم العثور عليها. على عكس مجرد ربط النص بأكمله، يطبق RAG نهجًا يُعرف باسم الدمج المتأخر (late fusion) — حيث يعالج النموذج التوليدي كل جزء من الأجزاء K التي تم الحصول عليها بالتوازي ويشكل لكل منها إجابة افتراضية مع تقييم للثقة، وبعد ذلك يجمع هذه الخيارات في استنتاج نهائي[2]. تسمح هذه الطريقة لـ RAG بتجميع إجابة حتى في الحالات التي لا يوجد فيها مصدر واحد يحتوي على إجابة مباشرة وكاملة على السؤال. على سبيل المثال، إذا كانت المعلومات المطلوبة موزعة عبر مقالات مختلفة، يمكن للنموذج دمج "أدلة" من عدة مستندات في إجابة واحدة[2] (يُلاحظ أن زيادة عدد المستندات المستخدمة عادةً ما تزيد من اكتمال الإجابة على حساب فقدان طفيف في ترابط النص[7].)
أشكال التنفيذ
في العمل الأصلي لعام 2020، تم اقتراح تعديلين على بنية RAG[6]. في وضع RAG-Sequence، يتلقى النموذج التوليدي مجموعة ثابتة من المستندات التي تم العثور عليها ويستخدمها لتوليد الإجابة بأكملها. في وضع RAG-Token، على العكس من ذلك، يُسمح بالتحديث الديناميكي: في كل خطوة من خطوات توليد الرمز (token) التالي، يمكن للنموذج إجراء بحث جديد وتحميل جزء نصي إضافي إذا لزم الأمر لتوضيح الإجابة. يُظهر كلا النهجين مستوى عاليًا مشابهًا من الجودة؛ RAG-Sequence أبسط وأسرع، بينما يسمح RAG-Token نظريًا بمراعاة المزيد من المعلومات المختلفة في الإجابات الطويلة[6].
مزايا RAG
- الحداثة والدقة الواقعية. يسمح ربط البيانات الخارجية لنماذج اللغة الكبيرة بتقديم إجابات أكثر دقة وموثوقية، معتمدة على معلومات حقيقية وليس فقط على معاملات النموذج. هذا يقلل بشكل كبير من خطر وجود معلومات قديمة أو مختلقة في إجابة النموذج[3][1]. على عكس النماذج ذات "الشريحة المعرفية" الثابتة، يمكن لـ RAG الإجابة حتى على أسئلة حول أحداث أو حقائق ظهرت بعد اكتمال تدريب النموذج — بفضل الوصول إلى مصادر بيانات حديثة[4].
- الشفافية وثقة المستخدم. أنظمة RAG قادرة على تقديم روابط لمصادر المعلومات (مثل المقالات أو التقارير أو قواعد البيانات) التي شكلت أساس الإجابة[1]. في جوهرها، يصيغ النموذج إجاباته بشكل مشابه لعمل علمي مع حواشٍ، مما يسمح بالتحقق من صحة كل حقيقة. يزيد وجود مصادر أولية مستشهد بها من ثقة المستخدمين ويسهل التحقق من المعلومات التي تم الحصول عليها.
- التخصص في مجال معين. يتيح التعزيز بالاسترجاع إمكانية تكييف عمل النموذج بسهولة مع مجال معرفي ضيق دون تغيير النموذج اللغوي نفسه. للقيام بذلك، يكفي تزويد LLM بقاعدة معرفية متخصصة في الموضوع المطلوب — سواء كانت مقالات طبية أو وثائق قانونية أو كتيبات فنية للشركة. يبدأ النموذج، مع الحفاظ على عموميته من حيث معاملاته، في العمل كخبير في هذا المجال، لأنه يستمد الحقائق من مجموعة البيانات المختارة[4][8]. على سبيل المثال، يمكن لمساعد قانوني قائم على RAG أن يقصر نطاق البحث على مجموعة تشريعية واحدة (قوانين بلد معين)، مما يضمن أن الإجابات ستكون متوافقة مع هذا التشريع تحديدًا[8].
- المرونة وقابلية تحديث المعرفة. في النماذج الكلاسيكية، لإضافة معرفة جديدة أو تصحيح حقائق غير صحيحة، كان من الضروري إجراء إعادة تدريب (fine-tuning) على مجموعة بيانات موسعة، وهو أمر مكلف من حيث الوقت والموارد. يحل RAG هذه المشكلة: لتحديث معرفة النموذج، يكفي تحديث قاعدة البيانات الخارجية أو توصيل مصادر إضافية، وسيبدأ النموذج على الفور في استخدام المعلومات الجديدة[2]. وهذا يجعل من السهل الحفاظ على حداثة النظام — في الواقع، يمكن استبدال البيانات "على الساخن" حتى في الوقت الفعلي دون انقطاع في عمل النموذج[1].
- الكفاءة وتوفير الموارد. غالبًا ما يكون نهج RAG أكثر عملية من تدريب النماذج فائقة الضخامة التي تسعى إلى استيعاب جميع المعلومات في معاملاتها. من خلال دمج البحث، يمكن تحقيق نتائج مماثلة مع نموذج متوسط الحجم، دون محاولة تذكر جميع الحقائق داخل الشبكة العصبية نفسها[6]. علاوة على ذلك، فإن تنفيذ خط أنابيب RAG ليس معقدًا نسبيًا: توجد أدوات جاهزة (أطر عمل، مكتبات)، ويوضح المطورون أنه يمكن بناء نموذج أولي أساسي لـ RAG في بضعة أسطر من التعليمات البرمجية حرفيًا[1]. وبالتالي، يقلل RAG من التكاليف الإجمالية لتطبيق الذكاء الاصطناعي: بدلاً من تدريب نموذج جديد لكل مهمة، يكفي تكوين آلية البحث وتوفير البيانات المناسبة.
المشكلات والقيود في RAG
على الرغم من المزايا الواضحة، يرث التوليد المعزز بالاسترجاع قيودًا من مكونات البحث ومن نماذج اللغة نفسها[9]. فيما يلي المشكلات الرئيسية الكامنة في أنظمة RAG:
- الاعتماد على جودة البحث. ستكون الإجابة التي يتم الحصول عليها صحيحة بقدر ما تكون البيانات المسترجعة ذات صلة وموثوقة. إذا أعادت وحدة البحث مستندات لا علاقة لها بالسؤال أو تحتوي على أخطاء، فلن يتمكن النموذج التوليدي من "تصحيح" هذه الحقائق — بل سيولد إجابة بناءً عليها[8]. وبالتالي، فإن جودة وحداثة قاعدة المعرفة الخارجية تحدد بشكل مباشر دقة RAG. يتطلب الأمر تحديث الفهرس بانتظام وتكوين خوارزميات الترتيب للحفاظ على صلة المستندات المعروضة.
- التعقيد العالي واستهلاك الموارد. لا يتطلب نظام RAG نموذج LLM فحسب، بل يتطلب أيضًا بنية تحتية للبحث: تخزين وتحديث قاعدة بيانات كبيرة، والفهرسة، والوقت اللازم لتنفيذ الاستعلام. كل هذا يزيد من التكاليف الحسابية وقد يقلل من سرعة الاستجابة مقارنة باستخدام نموذج لغوي فقط[8]. في أسوأ الحالات، قد تؤدي التأخيرات في مرحلة البحث أو معالجة كمية كبيرة جدًا من البيانات إلى إبطاء النظام. في الممارسة العملية، يجب الموازنة بين جودة الإجابة والأداء، من خلال تحسين خط الأنابيب (على سبيل المثال، عن طريق تحديد حجم قاعدة المعرفة أو عمق البحث للحفاظ على وقت الاستجابة ضمن المعدل الطبيعي).
- متطلبات البيانات والدعم. لكي يعمل RAG بفعالية، فإنه يحتاج إلى بيانات خارجية عالية الجودة ومنظمة ومتاحة. قد يواجه نموذج البحث صعوبة في العثور على معلومات مفيدة إذا كانت قاعدة المعرفة الخارجية ضعيفة التنظيم أو تحتوي على تشويش[8]. علاوة على ذلك، ليست البيانات المطلوبة دائمًا مفتوحة أو رخيصة: يتعين على الشركات إنشاء وصيانة قواعد المعرفة الخاصة بها (knowledge bases). وهذا يخلق تكاليف إضافية ويتطلب جهودًا لتحديث البيانات (على سبيل المثال، إضافة مستندات جديدة، وتنظيف المعلومات القديمة). تكمن نقطة ضعف RAG في الاعتماد على الحفاظ على قاعدة المعرفة محدثة.
- عدم إمكانية إزالة بعض أخطاء LLM. على الرغم من أن RAG يقلل بشكل كبير من عدد الاختلاقات، إلا أنه ليس من الممكن دائمًا استبعاد الإجابات غير الصحيحة تمامًا[9]. لا يزال بإمكان النموذج التوليدي ارتكاب خطأ منطقي أو تعميم المعلومات بشكل غير صحيح، خاصة إذا كان السياق المقدم غير مكتمل أو متناقضًا[9]. في الواقع، ينقل RAG تركيز الأخطاء: فبدلاً من الحقائق المختلقة تمامًا ("الهلوسات")، تظهر أخطاء في تكامل المعرفة بشكل أكثر شيوعًا — على سبيل المثال، قد يتجاهل النموذج جزءًا مهمًا أو يربط بشكل غير صحيح بين مصادر مختلفة. لذلك، في التطبيقات ذات المسؤولية العالية (الطب، القانون)، لا يزال التدخل البشري مطلوبًا للتحقق من إجابات النظام وتصحيحها.
تطبيقات RAG
وجد أسلوب التوليد المعزز بالاسترجاع تطبيقًا في العديد من السيناريوهات المتعلقة باستخراج المعرفة واستخدامها. فيما يلي المجالات الرئيسية التي يظهر فيها RAG أكبر فائدة:
- أنظمة الإجابة على الأسئلة وروبوتات الدردشة. يسمح RAG بإنشاء مساعدين افتراضيين وروبوتات دردشة تجيب على أسئلة المستخدمين بدقة عالية ويمكنها تقديم روابط للمصادر. في مجال دعم العملاء، تصل هذه الروبوتات إلى قاعدة المعرفة الداخلية للشركة (الأسئلة الشائعة، المقالات المرجعية) وتقدم إجابات فورية على استفسارات العملاء، مما يقلل العبء على الموظفين[8]. على عكس أنظمة الأسئلة الشائعة الكلاسيكية، تصيغ روبوتات RAG الإجابة بلغة حية، ولكنها في نفس الوقت "تدعمها" ببيانات محدثة خاصة بمشكلة المستخدم.
- الطب والرعاية الصحية. يمكن لنموذج توليدي، معزز بقاعدة بيانات طبية متخصصة (مقالات علمية، بروتوكولات سريرية، مراجع)، أن يعمل كمساعد ذكي للطبيب أو المريض. على سبيل المثال، يمكن للنظام الإجابة على سؤال حول تشخيص نادر، من خلال العثور على أحدث الأبحاث حول هذا الموضوع في الأدبيات الطبية[8]. من المزايا المهمة لـ RAG في الطب إمكانية الإشارة إلى المصادر الأولية (مثل نتائج التجارب السريرية)، وهو أمر ضروري لكسب ثقة الأطباء. تُستخدم هذه الأنظمة لدعم اتخاذ القرار، والتحقق من الأعراض، وتدريب طلاب الطب، وما إلى ذلك، مما يضمن الوصول إلى أحدث المعارف الطبية.
- القانون والمالية. في الممارسة القانونية والتحليل المالي، تعد دقة المعلومات وإمكانية التحقق منها أمرًا بالغ الأهمية. يمكن لأنظمة RAG أن تساعد المهنيين في العثور بسرعة على البيانات اللازمة: على سبيل المثال، يمكن لمحامٍ باستخدام النموذج العثور على قرار قضائي سابقة أو بند قانوني ذي صلة بالقضية الحالية والاستشهاد به، ويمكن لمحلل مالي الحصول بسرعة على مقتطفات من أحدث التقارير الاقتصادية أو أخبار السوق[8]. في الوقت نفسه، يمكن أن تحتوي كل إجابة من النموذج على روابط لمستندات محددة (لوائح، تقارير، مقالات)، مما يتوافق مع معايير الصناعة ويسهل العمل اليدوي اللاحق للمتخصص.
- البحث العلمي وإنشاء المحتوى. يمكن للصحفيين والباحثين والكتّاب استخدام RAG لتسريع البحث عن الحقائق والمصادر عند إعداد المواد. على سبيل المثال، يمكن للنموذج، بناءً على طلب، "جمع" معلومات من عدة منشورات موثوقة وبالتالي تقليل الوقت المستغرق في التحقق من الحقائق واختيار الاقتباسات بشكل كبير[8]. يستخرج المساعدون البحثيون القائمون على RAG تلقائيًا روابط للأعمال ذات الصلة، وبيانات من قواعد البيانات المفتوحة (مثل الإحصاءات من التقارير الدولية)، وحتى الترجمات الأولية، مما يسمح للمؤلفين بالتركيز على الجزء التحليلي من العمل. تجد هذه الأدوات تطبيقات في وسائل الإعلام، والوسط الأكاديمي، وعند إعداد مراجعات الأدبيات، إلخ.
- المعرفة المؤسسية والبحث في المستندات. في العديد من المنظمات، يتم تخزين كمية كبيرة من المعلومات القيمة في شكل مستندات نصية: لوائح، أدلة، تقارير، مراسلات، ملفات سجلات. يوفر RAG طريقة للبحث التفاعلي في هذه البيانات غير المهيكلة باستخدام اللغة. يمكن للموظف طرح سؤال ("ماذا تقول سياسة الإجازات للموظفين عن بعد؟") - وسيعثر النموذج على القسم المطلوب في مستند داخلي، ويستشهد به، ويصوغ إجابة موجزة[1]. هذا يزيد من كفاءة العمل: يجد الموظفون الجدد إجابات للأسئلة بشكل أسرع، وتحصل أقسام الدعم على أداة للبحث السريع في قاعدة بيانات الحوادث، وتحصل الإدارة على طريقة لتحليل البيانات النصية المتراكمة. بدأت شركات تكنولوجيا المعلومات الكبرى بالفعل في تطبيق نهج RAG في الحلول المؤسسية: تدمج التقنيات من Microsoft وGoogle وIBM وAWS وغيرها نماذج LLM مع البحث في بيانات المنظمة[1].
الآفاق والأبحاث المستقبلية
يتطور أسلوب التوليد المعزز بالاسترجاع بنشاط، ومن المتوقع في السنوات القادمة توسيع إمكانياته بشكل أكبر. أحد الاتجاهات هو RAG متعدد الوسائط، حيث يمكن أن تكون المعلومات الخارجية ليست نصوصًا فقط، ولكن أيضًا صورًا أو صوتًا/فيديو أو حتى بيانات من أجهزة استشعار. تظهر التجارب واعدة في الجمع بين نماذج اللغة والبحث في قواعد البيانات المرئية، مما سيسمح، على سبيل المثال، بالإجابة على أسئلة حول محتوى الصور أو مقاطع الفيديو، بالاعتماد على الأوصاف والنصوص ذات الصلة[2]. اتجاه مهم آخر هو الاستخدام المتزامن لعدة مصادر معرفية: ستكون أنظمة RAG المستقبلية قادرة على دمج البيانات من قواعد بيانات مختلفة (مثل ويكيبيديا، الموسوعات المتخصصة، الملاحظات الشخصية للمستخدم) وتجميع الإجابات التي تأخذ في الاعتبار كل هذه المعلومات المتباينة[2].
يواجه الباحثون أيضًا مهمة زيادة موثوقية وأمان RAG. من الضروري تقليل خطر انتشار التحيزات والأخطاء التي قد تكون موجودة في البيانات الخارجية، وكذلك ضمان اتساق الإجابات. اتخذ فريق مطوري RAG الأصلي بالفعل خطوات في هذا الاتجاه – على سبيل المثال، عن طريق قصر قاعدة المعرفة الأولية على مقالات ويكيبيديا فقط كمصدر تم التحقق منه ومحايد نسبيًا[2]. في المستقبل، يخطط لإنشاء مرشحات وأساليب خاصة لاختيار المستندات لضمان حصول النموذج على سياق عالي الجودة بشكل مؤكد. بالإضافة إلى ذلك، تتركز الأبحاث على تحسين آلية البحث نفسها: يتم تطوير خوارزميات جديدة للترتيب والفهرسة الدلالية، قادرة على فهم الاستعلامات بشكل أكثر دقة والعثور على المعلومات ذات الصلة حتى للصيغ المعقدة أو غير الواضحة.
أخيرًا، يمثل التكامل الأعمق لـ RAG مع عملية تدريب نماذج اللغة اهتمامًا كبيرًا. بدأت تظهر بالفعل مناهج يتم فيها استخدام آليات الاسترجاع ليس فقط في مرحلة الاستدلال، ولكن أيضًا أثناء التدريب الأولي أو الضبط الدقيق لنماذج LLM[10]. يمكن أن يزيد هذا من واقعية النماذج بشكل أكبر ويقلل من اعتمادها على المعرفة المسجلة بشكل ثابت في الأوزان. وفقًا للمراجعات المنشورة في عام 2024، يرى المجتمع آفاقًا كبيرة في تطوير منظومة RAG: من تحسين البنية التحتية (تسريع البحث، تقليل استهلاك الذاكرة) إلى إنشاء معايير قياسية لتقييم جودة أنظمة RAG[3]. كل هذا يهدف إلى جعل النماذج التوليدية أكثر دقة وعالمية وأمانًا عند العمل مع المعرفة الخارجية المتجددة باستمرار، وهو ما يمثل خطوة رئيسية نحو ذكاء اصطناعي موثوق من الجيل الجديد.
روابط
- ما هو التوليد المعزز بالاسترجاع (RAG) — مدونة NVIDIA
- Retrieval-Augmented Generation for Large Language Models: A Survey — مراجعة علمية على arXiv
- Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks — المقالة الأصلية عن RAG
- ما هو RAG؟ حالات الاستخدام والقيود والتحديات — مدونة Bright Data
المراجع
- Lewis, P. et al. (2020). Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. arXiv:2005.11401.
- Karpukhin, V. et al. (2020). Dense Passage Retrieval for Open-Domain Question Answering. arXiv:2004.04906.
- Guu, K. et al. (2020). REALM: Retrieval-Augmented Language Model Pre-Training. arXiv:2002.08909.
- Qu, Y. et al. (2020). RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain Question Answering. arXiv:2010.08191.
- Izacard, G.; Grave, E. (2021). Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering. arXiv:2007.01282.
- Borgeaud, S. et al. (2022). Improving Language Models by Retrieving from Trillions of Tokens. arXiv:2112.04426.
- Wei, J. et al. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903.
- Wang, X. et al. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv:2203.11171.
- Kojima, T. et al. (2022). Large Language Models are Zero-Shot Reasoners. arXiv:2205.11916.
- Yao, S. et al. (2022). ReAct: Synergizing Reasoning and Acting in Language Models. arXiv:2210.03629.
- Mialon, G. et al. (2023). Retrieval-Augmented Generation for Large Language Models: A Survey. arXiv:2312.10997.
- Madaan, A. et al. (2023). Self-Refine: Iterative Refinement with Self-Feedback. arXiv:2303.17651.
- Yang, Z. et al. (2023). Re-ViLM: Retrieval-Augmented Visual Language Model for Zero and Few-Shot Image Captioning. arXiv:2302.04858.
- Barnett, S. et al. (2024). Seven Failure Points When Engineering a Retrieval Augmented Generation System. arXiv:2401.05856.
- Wang, Y. et al. (2024). Self-Instruct: Aligning Language Models with Self-Generated Instructions. arXiv:2212.10560.
- Han, H. et al. (2025). Retrieval-Augmented Generation with Graphs (GraphRAG). arXiv:2501.00309.
الهوامش
- ↑ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 «What Is Retrieval-Augmented Generation aka RAG». NVIDIA Blogs. [١]
- ↑ 2.00 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.10 «Facebook open-sources RAG, an AI model that retrieves documents to answer questions». VentureBeat. [٢]
- ↑ 3.0 3.1 3.2 3.3 Mialon, Grégoire et al. «Retrieval-Augmented Generation for Large Language Models: A Survey». arXiv. [٣]
- ↑ 4.0 4.1 4.2 «Applied AI Software Engineering: RAG». Pragmatic Engineer. [٤]
- ↑ 5.0 5.1 5.2 Lewis, Patrick et al. «Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks». arXiv. [٥]
- ↑ 6.0 6.1 6.2 6.3 6.4 6.5 6.6 «How RAG Makes LLMs Smarter». Exxact Blog. [٦]
- ↑ «Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks». arXiv. [٧]
- ↑ 8.0 8.1 8.2 8.3 8.4 8.5 8.6 8.7 8.8 «What Is RAG? Use Cases, Limitations, and Challenges». Bright Data Blog. [٨]
- ↑ 9.0 9.1 9.2 Lewis, Patrick et al. «Seven Failure Points When Engineering a Retrieval Augmented Generation System». arXiv. [٩]
- ↑ «التوليد المعزز بالاسترجاع». ويكيبيديا. [١٠]