Claude (Anthropic) — كلود

From Systems analysis wiki
Jump to navigation Jump to search

Claude هو عائلة من النماذج اللغوية الكبيرة (LLM) متعددة الوسائط، طورتها شركة الأبحاث Anthropic.

تُقدم نماذج Claude، المبنية على بنية المحولات، كمساعدي ذكاء اصطناعي يركزون على الأمان والفائدة والنزاهة. الميزة الرئيسية في تطويرها هي منهجية Constitutional AI ("الذكاء الاصطناعي الدستوري")، التي تهدف إلى إنشاء أنظمة قابلة للتوجيه ومتوافقة أخلاقيًا.

History and philosophy - التاريخ والفلسفة

Founding and mission of Anthropic - تأسيس Anthropic ورسالتها

تأسست شركة Anthropic في عام 2021 على يد موظفين كبار سابقين في OpenAI، بما في ذلك الأخوان داريو[1] ودانييلا أموديه[2]. كان سبب رحيلهم هو خلافات مع إدارة OpenAI بشأن توجهات التطوير، وتحديدًا بسبب مخاوف من أن الشراكة مع Microsoft والتسويق المتزايد قد يعرضان الالتزام بأمان الذكاء الاصطناعي للخطر.

تتمثل رسالة Anthropic في "تطوير ودعم الذكاء الاصطناعي المتقدم لتحقيق فائدة طويلة الأمد للبشرية". الشركة مسجلة كـ Public Benefit Corporation (PBC) في الولايات المتحدة، مما يلزمها قانونًا بموازنة المصالح المالية مع المنفعة العامة. هذا النهج مدعوم بهيكل حوكمة فريد مع Long-Term Benefit Trust (LTBT)، وهو هيئة مستقلة لديها القدرة على التأثير في تشكيل مجلس الإدارة لضمان الالتزام بمهمة الأمان.

Philosophy: HHH and Constitutional AI - الفلسفة: HHH والذكاء الاصطناعي الدستوري

في صميم سلوك نماذج Claude تكمن صيغة HHH: Helpful, Honest, and Harmless (مفيد، صادق، وغير ضار). لتطبيق هذه المبادئ، طورت Anthropic منهجية تدريب خاصة بها — Constitutional AI (CAI).

على عكس نهج RLHF التقليدي (التعلم المعزز من خلال التغذية الراجعة البشرية)، حيث يقوم المقيِّمون البشريون بتقييم استجابات النموذج مباشرة، يستخدم CAI "دستورًا" — مجموعة من المبادئ الأخلاقية الصريحة التي يتعلم النموذج على أساسها تقييم وتصحيح استجاباته بنفسه. هذا يجعل العملية أكثر قابلية للتوسع والشفافية والتحكم.

Architecture and key technologies - البنية والتقنيات الرئيسية

Transformer-based foundation - أساس يعتمد على المحولات (Transformer)

مثل غيرها من النماذج اللغوية الكبيرة الحديثة، يستخدم Claude بنية المحولات-المفكك (transformer-decoder)، التي تولد النص بشكل ذاتي الانحدار (autoregressively) رمزًا تلو الآخر. ومع ذلك، أدخلت Anthropic تحسينات كبيرة تهدف إلى زيادة الأداء والأمان والقدرة على التحكم.

Constitutional AI (CAI) - الذكاء الاصطناعي الدستوري (CAI)

تتم عملية التدريب باستخدام CAI على مرحلتين:

  1. مرحلة التعلم الخاضع للإشراف (Supervised Learning): يقوم النموذج بتوليد استجابات للطلبات، ثم يقوم نموذج ناقد آخر، مسترشدًا بـ "الدستور"، بتقييمها واقتراح تصويبات. بناءً على هذه التصويبات، يتم إعادة تدريب النموذج الأصلي.
  2. مرحلة التعلم المعزز من خلال التغذية الراجعة من الذكاء الاصطناعي (RLAIF): يقوم النموذج بتوليد أزواج من الاستجابات، ويختار النموذج الناقد الأفضل منها بناءً على "الدستور". تُستخدم هذه البيانات لتدريب نموذج تفضيل (reward model)، والذي يعمل بعد ذلك كإشارة لإعادة تدريب النموذج الرئيسي باستخدام خوارزميات التعلم المعزز.

Long context and multimodality - السياق الطويل والوسائط المتعددة

إحدى المزايا الرئيسية لـ Claude هي نافذة السياق الكبيرة جدًا. بدءًا من 100 ألف رمز في Claude 2، تمت زيادتها إلى 200 ألف في Claude 3، وإلى 1-2 مليون رمز في إصداري 3.5 و 4. وهذا يتيح للنماذج تحليل كتب كاملة، أو قواعد بيانات برمجية، أو نصوص محادثات تستمر لساعات ضمن طلب واحد.

بدءًا من عائلة Claude 3، أصبحت النماذج متعددة الوسائط، حيث اكتسبت القدرة على معالجة الصور إلى جانب النص.

Hybrid thinking and agentic capabilities - التفكير الهجين والقدرات الوكيلة

مع إصداري Claude 3.7 و 4، تم تقديم بنية التفكير الهجين. تسمح هذه البنية للنماذج بالتبديل بين وضعين:

  • الاستجابات السريعة: الوضع القياسي للمهام البسيطة.
  • التفكير الممتد (Extended Thinking): للمهام المعقدة، يأخذ النموذج وقفة "للتفكير"، حيث ينفذ خطوات استدلال داخلية، ويستدعي أدوات (مثل البحث على الويب، وتنفيذ التعليمات البرمجية)، ويشكل إجابة أكثر عمقًا. هذا يجعل العملية أكثر شفافية وموثوقية.

Evolution of Claude models - تطور نماذج Claude

Claude 1 and 2 (2023) - كلود 1 و 2 (2023)

  • Claude 1 (مارس 2023): أول إصدار عام. قدم نموذج Claude Instant للمهام السريعة وإصدارًا رائدًا بنافذة سياق تبلغ 100,000 رمز.
  • Claude 2 (يوليو 2023): نسخة محسنة أصبحت متاحة للعموم عبر واجهة ويب. أظهرت تحسينات كبيرة في البرمجة (71% على Codex HumanEval) والرياضيات. في نوفمبر 2023، تم إصدار Claude 2.1 بنافذة سياق تبلغ 200,000 رمز.

Claude 3 (March 2024) - كلود 3 (مارس 2024)

العائلة التي تفوقت لأول مرة على GPT-4 في عدد من الاختبارات المعيارية.

  • الإصدارات: Haiku (الأسرع)، Sonnet (المتوازن)، و Opus (الأقوى).
  • الابتكارات الرئيسية: إدخال الوسائط المتعددة (تحليل الصور)، تحسين كبير في الاستدلال والبرمجة، وتقليل حالات الرفض غير المبرر. حقق Opus نسبة 86.8% في اختبار MMLU.

Claude 3.5 (June 2024) - كلود 3.5 (يونيو 2024)

جيل وسيط يركز على زيادة الذكاء والسرعة.

  • Claude 3.5 Sonnet: تفوق في الأداء على Claude 3 Opus، مع كونه أسرع بمرتين. تم تقديم ميزة Artifacts [3]— وهي لوحة تفاعلية للعمل مع التعليمات البرمجية أو المستندات التي تم إنشاؤها.

Claude 3.7 and Claude 4 (2025) - كلود 3.7 وكلود 4 (2025)

جيل موجه نحو القدرات الوكيلة والاستدلال المعقد.

  • Claude 3.7 Sonnet (فبراير 2025): إدخال التفكير الهجين، مما سمح للنموذج بالجمع بين الاستجابات السريعة والاستدلال العميق خطوة بخطوة.
  • Claude 4 (مايو 2025): العائلة الرائدة (Opus 4 و Sonnet 4) مع التركيز على وكلاء الذكاء الاصطناعي المستقلين. تتمتع النماذج بالقدرة على تنفيذ مهام متعددة الخطوات، والعمل مع نظام الملفات (عبر Computer Use)، واستدعاء الأدوات، ودعم جلسات العمل الطويلة (تصل إلى عدة ساعات) دون تدهور الأداء. حقق Opus 4 نسبة 72.5% في اختبار البرمجة المعقد SWE-bench.

Summary table of Claude generations - جدول ملخص لأجيال Claude

تطور الخصائص الرئيسية لنماذج Claude
الجيل سنة الإصدار الإصدارات الرئيسية أقصى نافذة سياق الابتكارات الرئيسية
Claude 1 2023 Claude, Instant 100,000 رمز أول إصدار عام، سياق كبير.
Claude 2 2023 Claude 2, 2.1 200,000 رمز تحسين في الترميز والاستدلال، وإتاحته للعموم.
Claude 3 2024 Opus, Sonnet, Haiku 200,000+ رمز تعدد الوسائط (الصور)، التفوق على GPT-4.
Claude 3.5 2024 Sonnet, Haiku 200,000+ رمز زيادة السرعة والذكاء، ميزة "Artifacts".
Claude 4 / 3.7 2025 Opus, Sonnet 200,000+ رمز التفكير الهجين، القدرات الوكيلة، استخدام الأدوات.

Application and availability - التطبيق والتوافر

نماذج Claude متاحة عبر عدة قنوات:

  • واجهة الويب claude.ai: توفر وصولًا مجانيًا (لنموذج Sonnet) واشتراكات مدفوعة (Pro, Max) مع إمكانية الوصول إلى نماذج أقوى (Opus) وحدود استخدام موسعة.
  • API للمطورين: توفر Anthropic واجهة برمجة تطبيقات (API) تجارية تتيح دمج Claude في تطبيقات الطرف الثالث. تختلف الأسعار حسب النموذج (Haiku هو الأرخص، و Opus هو الأغلى).
  • المنصات السحابية: Claude متاح عبر Amazon Bedrock و Google Cloud Vertex AI، مما يسهل استخدامه في بيئات الشركات.
  • التكاملات: تم دمج Claude في خدمات شائعة مثل Slack، و Notion، و Quora (في روبوت الدردشة Poe).

Literature - المراجع

Literature - المراجع

  • Ouyang, L. et al. (2022). Training Language Models to Follow Instructions with Human Feedback. arXiv:2203.02155.
  • Bai, Y. et al. (2022). Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback. arXiv:2204.05862.
  • Bai, Y. et al. (2022). Constitutional AI: Harmlessness from AI Feedback. arXiv:2212.08073.
  • Bulatov, A. et al. (2023). Scaling Transformer to 1M Tokens and Beyond with RMT. arXiv:2304.11062.
  • Jimenez, C. E. et al. (2023). SWE-bench: Can Language Models Resolve Real-World GitHub Issues?. arXiv:2310.06770.
  • Yuan, W. et al. (2024). Self-Rewarding Language Models. arXiv:2401.10020.
  • Yang, A. et al. (2024). Context Parallelism for Scalable Million-Token Inference. arXiv:2411.01783.
  • Miranda, L. J. V. et al. (2024). Hybrid Preferences: Learning to Route Instances for Human vs AI Feedback. arXiv:2410.19133.
  • Chittepu, Y. et al. (2025). Reinforcement Learning from Human Feedback with High-Confidence Safety Constraints. arXiv:2506.08266.
  • Yuan, W. et al. (2025). Process-based Self-Rewarding Language Models. arXiv:2503.03746.
  • Yang, B. et al. (2025). Long Context Windows in Generative AI: An AI Atlas Report. [٤] (tech-report, open review).

Notes - ملاحظات

  1. «Dario Amodei». في Wikipedia [١]
  2. «Daniela Amodei». في Wikipedia [٢]
  3. «What Are Artifacts and How Do I Use Them? | Anthropic Help Center».[٣]