Open-weight and closed-weight models — النماذج مفتوحة الوزن ومغلقة الوزن
النماذج مفتوحة الوزن ومغلقة الوزن (Open-weight and Closed-weight models) — هما نهجان مختلفان جذريًا لتطوير ونشر نماذج اللغة الكبيرة (LLM)، ويشكلان انقسامًا رئيسيًا في النظام البيئي المعاصر للذكاء الاصطناعي. يؤثر الاختيار بين هذين النهجين على القدرات التقنية، والاقتصاد، والأمان، والتطور المستقبلي للذكاء الاصطناعي[1].
يكمن الاختلاف في مدى إتاحة المعلمات المُدرَّبة (الأوزان) للنموذج. تقوم نماذج Open-weight بنشر أوزانها، مما يسمح للمجتمع باستخدامها وتعديلها ونشرها محليًا. أما نماذج Closed-weight، على النقيض من ذلك، فتحتفظ بأوزانها سرًا، وتوفر الوصول إلى قدراتها حصريًا عبر واجهات برمجة تطبيقات (API) احتكارية[2].
التعريفات والاختلافات الرئيسية
نماذج Open-weight (مفتوحة الوزن)
نماذج Open-weight — هي أنظمة تكون فيها المعلمات المُدرَّبة (أوزان) الشبكة العصبية متاحة للعامة للاستخدام والتعديل والتوزيع. وفقًا لتعريف أندريه كارباثي من OpenAI، يشبه هذا النموذج "تسليم الملف الثنائي لنظام التشغيل" — حيث يحصل المستخدمون على منتج وظيفي، ولكن عادةً دون الوصول إلى الكود المصدري للتدريب أو بيانات التدريب.
الخصائص الرئيسية:
- النشر المحلي: إمكانية تشغيل النموذج على الأجهزة الخاصة، مما يضمن التحكم الكامل في البيانات والخصوصية.
- الضبط الدقيق (Fine-tuning): إمكانية تكييف النموذج لمهام ومجالات محددة.
- الشفافية والتدقيق: يمكن للباحثين دراسة الآليات الداخلية للنموذج للكشف عن التحيزات ونقاط الضعف.
نماذج Closed-weight (مغلقة الوزن)
نماذج Closed-weight (المعروفة أيضًا بالنماذج الاحتكارية) — هي أنظمة تُعتبر معلماتها سرًا تجاريًا ولا يمكن الوصول إليها إلا عبر واجهة برمجة تطبيقات (API) أو تراخيص محدودة. تتحكم الشركات المطورة مثل OpenAI و Anthropic بشكل كامل في البنية، وأساليب التدريب، وآليات الاستدلال. يشير التقرير التقني لـ GPT-4 صراحةً إلى رفض الكشف عن التفاصيل، "نظرًا للبيئة التنافسية والآثار المترتبة على أمان النماذج واسعة النطاق"[3].
الخصائص الرئيسية:
- التحكم المركزي: يدير المطور التحديثات والأمان وسياسات الاستخدام.
- سهولة الاستخدام: يتيح الوصول عبر API للمستخدمين تجنب الحاجة إلى إدارة بنية تحتية معقدة.
- انعدام الشفافية: عدم الوصول إلى الآليات الداخلية يجعل التدقيق المستقل مستحيلًا ويعقد فهم أسباب الإجابات الخاطئة أو المتحيزة.
الاختلاف عن المصدر المفتوح (Open-source)
من المهم التمييز بين مصطلحي open-weight و open-source. يفترض النموذج المفتوح المصدر الحقيقي نشر جميع المكونات اللازمة لإعادة إنتاجه: الأوزان، والبنية، وكود التدريب، ومجموعات البيانات. معظم النماذج «المفتوحة» الحالية، مثل Llama من Meta، هي open-weight، ولكنها ليست open-source بالكامل، حيث تظل بيانات تدريبها وأساليب التدريب الدقيقة مغلقة.
تحليل مقارن: الأداء، التكلفة، والابتكار
الأداء والتخصيص
تاريخيًا، كانت نماذج closed-weight مثل GPT-4 تتصدر المقاييس المعيارية العامة. ومع ذلك، فإن الفجوة في الأداء تتقلص بسرعة. وفقًا لـ Stanford AI Index 2025، تقلصت هذه الفجوة من 8% إلى 1.7% خلال العام الماضي[1]. تُظهر نماذج open-weight القوية، مثل LLaMA 3.1 405B من Meta و DeepSeek-V3، نتائج قابلة للمقارنة، وفي بعض المهام (خاصة في البرمجة) — نتائج متفوقة[4].
تكمن الميزة الرئيسية لنماذج open-weight في التخصيص العميق. تسمح إمكانية إعادة تدريبها على بيانات محددة بتفوقها على نماذج closed-weight الأكبر ولكنها عامة في مجالات ضيقة، مثل الطب أو القانون.
الجوانب الاقتصادية
- تكلفة التدريب: يعد إنشاء النماذج الرائدة (frontier) مكلفًا للغاية. تُقدر تكلفة تدريب GPT-4 بأكثر من 100 مليون دولار. تحقق نماذج open-weight، مثل DeepSeek-V3، أداءً مشابهًا بتكلفة 5.5 مليون دولار، مما يساهم في دمقرطة الوصول إلى إنشاء أنظمة قوية.
- تكلفة الاستخدام (الاستدلال): يتم تسعير نماذج closed-weight وفقًا لنموذج الدفع مقابل الاستخدام (pay-per-use) عبر API، مما قد يؤدي إلى نفقات عالية مع كميات كبيرة من البيانات. تتطلب نماذج open-weight، عند نشرها محليًا، استثمارات أولية في البنية التحتية، ولكنها تتمتع بتكلفة إجمالية للملكية (TCO) أقل بكثير عند التوسع.
التأثير على البحث العلمي والابتكار
تُحدث نماذج open-weight تحولًا جوهريًا في البحث العلمي من خلال توفير إمكانية إعادة الإنتاج ودمقرطة الوصول. يمكن للباحثين في جميع أنحاء العالم تحليل النماذج المفتوحة ونقدها وتحسينها، مما يخلق نظامًا بيئيًا ديناميكيًا ويسرع من وتيرة التقدم. في المقابل، تخلق النماذج المغلقة «أزمة في قابلية إعادة الإنتاج»، حيث لا يمكن التحقق من النتائج المعلنة بشكل مستقل.
الأمان والمعضلات الأخلاقية
تعد مسألة الأمان معضلة مركزية في النقاش بين الانفتاح والتحكم.
- نهج Closed-weight (المنع المركزي): يطبق المطورون مثل OpenAI و Anthropic نهجًا وقائيًا. فهم يدمجون مرشحات أمان معقدة، ويجرون اختبارات مكثفة تُعرف بـ "الفريق الأحمر" (red teaming)، ويلتزمون بسياسات صارمة مثل سياسة التوسع المسؤول (Responsible Scaling Policy) من Anthropic، التي تلزمهم بعدم نشر النماذج التي تتجاوز عتبات مخاطر معينة[5].
- نهج Open-weight (المرونة اللامركزية): تفترض هذه الفلسفة، المشابهة لعالم المصدر المفتوح، أن «العيون الكثيرة تجعل كل الأخطاء بسيطة». يمكن للمجتمع العثور على نقاط الضعف وإصلاحها بسرعة أكبر. ومع ذلك، يخلق هذا أيضًا مخاطر: يمكن للمهاجمين دراسة النماذج بنفس السهولة للبحث عن نقاط ضعف أو إزالة آليات الحماية عن طريق إعادة التدريب.
تُظهر الدراسات أن النية البشرية، وليس إتاحة النموذج، هي العامل الرئيسي للمخاطر. يرتبط 90% من حالات إساءة استخدام الذكاء الاصطناعي التوليدي الموثقة باستغلال القدرات المسموح بها، وليس بالضرر الناتج عن الأنظمة نفسها.
التوجهات التنظيمية: الاتحاد الأوروبي والولايات المتحدة
- قانون الذكاء الاصطناعي في الاتحاد الأوروبي: يتبنى نهجًا وقائيًا قائمًا على المخاطر. يفرض القانون التزامات صارمة على النماذج ذات «المخاطر النظامية» (التي تتطلب أكثر من 1025 فلوبس للتدريب)، ولكنه يوفر استثناءات محدودة لنماذج المصدر المفتوح التي لا تشكل مثل هذا الخطر. هذا يخلق حافزًا للشفافية، ولكنه يضيف أيضًا تعقيدًا تنظيميًا.
- التوجه الأمريكي: يعتمد على تحفيز الابتكار وإدارة المخاطر من خلال معايير الصناعة. يوصي الأمر التنفيذي للرئيس بايدن 14110 وتقرير NTIA اللاحق بالامتناع عن فرض قيود فورية على نماذج open-weight، مقترحين بدلاً من ذلك إنشاء نظام مراقبة لاتخاذ قرارات قائمة على الأدلة الفعلية[6].
النماذج والجهات الفاعلة الرئيسية
| نوع النموذج | النموذج | المطور | الميزة الرئيسية |
|---|---|---|---|
| مفتوح الوزن | LLaMA 3.1 | Meta | أداء عالٍ وضع معيارًا للنماذج المفتوحة؛ مجتمع كبير. |
| Mixtral 8x7B | Mistral AI | بنية «مزيج الخبراء» (MoE)، توفر أداءً عاليًا بتكاليف استدلال منخفضة. | |
| مغلق الوزن | GPT-4 / GPT-4o | OpenAI | رائد تاريخي في الأداء، وقدرات قوية متعددة الوسائط. |
| Claude 4 Opus | Anthropic | تركيز على الأمان والأخلاقيات (Constitutional AI)، ونافذة سياق كبيرة. |
روابط خارجية
- Stanford AI Index Report 2025 — تقرير سنوي عن حالة الذكاء الاصطناعي.
- تقرير NTIA عن النماذج مفتوحة الوزن
المؤلفات
- OpenAI et al. (2023). GPT-4 Technical Report. arXiv:2303.08774.
- Touvron, H. et al. (2023). Llama 2: Open Foundation and Fine-Tuned Chat Models. arXiv:2307.09288.
- DeepSeek-AI (2025). DeepSeek-V3 Technical Report. arXiv:2412.19437.
- Kapoor, S.; Bommasani, R. et al. (2024). On the Societal Impact of Open Foundation Models. arXiv:2403.07918.
- U.S. NTIA (2024). Dual-Use Foundation Models with Widely Available Model Weights. NTIA Report.
- Stanford HAI (2025). Artificial Intelligence Index Report 2025. Full PDF.
- Anthropic (2023). Responsible Scaling Policy. Anthropiс RSP.
- Klyman, K. et al. (2024). A Design Framework for Open-Source Foundation Model Safety. arXiv:2406.10415.
- Kembery, E.; Reed, T. (2024). AI Safety Frameworks Should Include Procedure for Model Access Decisions. arXiv:2411.10547.
- European Commission (2024). General-Purpose AI Models in the AI Act – Q&A. EU AI Act FAQ.
- Zhang, X. et al. (2025). Mitigating Cyber Risk in the Age of Open-Weight LLMs. arXiv:2505.17109.
- Biderman, S. et al. (2024). Risks and Opportunities of Open-Source Generative AI. arXiv:2405.08597.
المراجع
- ↑ 1.0 1.1 «Artificial Intelligence Index Report 2025». Stanford University HAI. [١] تم التحقق في 4 يوليو 2025.
- ↑ Karpathy, Andrej. «On Open-sourcing LLMs». X (formerly Twitter).
- ↑ «GPT-4 Technical Report». OpenAI. [٢]
- ↑ «DeepSeek-V2 and DeepSeek-Coder-V2 Technical Report».
- ↑ «Anthropic's Responsible Scaling Policy». Anthropic.
- ↑ «Dual-Use Foundation Models with Widely Available Model Weights». U.S. Department of Commerce, NTIA. (2024).