Hugging Face — هَغِنْغ فِيس
Hugging Face, Inc. هي شركة أمريكية تحتل موقعًا مركزيًا في النظام البيئي الحديث للذكاء الاصطناعي (AI). توفر الشركة منصة مفتوحة المصدر، غالبًا ما يشار إليها باسم "GitHub للتعلم الآلي"، وتحتوي على مستودعات للنماذج ومجموعات البيانات والتطبيقات التوضيحية[1]. تتمثل مهمة الشركة في إضفاء الطابع الديمقراطي على الذكاء الاصطناعي من خلال توفير الأدوات وإنشاء مجتمع عالمي للعمل التعاوني[2].
تأسست الشركة في عام 2016 على يد رواد الأعمال الفرنسيين كليمان ديلانج (الرئيس التنفيذي)، وجوليان شومون (المدير التقني)، وتوماس وولف (كبير المسؤولين العلميين). بعد أن تطورت من مطور لروبوت محادثة إلى منصة رئيسية، أصبحت Hugging Face لا غنى عنها للباحثين والمطورين والشركات الكبرى في جميع أنحاء العالم، حيث بلغت قيمتها 4.5 مليار دولار بحلول عام 2023[3].
تاريخ الشركة ونشأتها
التأسيس والتحول الاستراتيجي (2016)
في البداية، تأسست Hugging Face في عام 2016 لإنشاء تطبيق استهلاكي — روبوت محادثة موجه لجمهور المراهقين. تم اختيار اسم الشركة، المشتق من رمز الإيموجي "الوجه المعانق" (🤗)، ليعكس الطبيعة الودودة والمتعاطفة للمساعد الذكي[1].
لكن روبوت المحادثة لم يحقق شعبية كبيرة. أصبح هذا الفشل الأولي حافزًا لتغيير جوهري في الاستراتيجية. بدلاً من تطوير منتج نهائي، قرر المؤسسون فتح الكود المصدري للنموذج الذي كان أساس روبوت المحادثة[3]. كشف رد فعل المجتمع عن طلب هائل على الأدوات المتاحة للعمل مع النماذج المتقدمة لمعالجة اللغات الطبيعية (NLP).
قامت الشركة بتحول استراتيجي، حيث أعادت توجيه تركيزها نحو إنشاء منصة للتعلم الآلي بمهمة جعل تقنيات الذكاء الاصطناعي متاحة للجميع، وليس فقط للشركات الكبرى. وهكذا، أدى فشل منتج B2C إلى النجاح في نموذج B2D (Business-to-Developer - من الشركة إلى المطور)، مما رسخ مبادئ الانفتاح والتوجه نحو المجتمع في صميم هوية الشركة[4].
المراحل الرئيسية للتطور والتمويل
بعد التحول الاستراتيجي، أظهرت الشركة نموًا سريعًا.
- 2019: إنشاء مكتبة Transformers. تم تطويرها في الأصل لمعالجة اللغات الطبيعية، وسرعان ما توسعت لدعم النماذج في مجالات الرؤية الحاسوبية والصوت، لتصبح المعيار الفعلي في الصناعة[5].
- يوليو 2022: اختتام ورشة العمل الدولية BigScience التي نظمتها Hugging Face. كانت النتيجة إطلاق BLOOM — نموذج متعدد اللغات ومفتوح المصدر بـ 176 مليار معلمة.
- ديسمبر 2022: استحواذ Hugging Face على Gradio، وهي مكتبة شهيرة مفتوحة المصدر لإنشاء عروض تفاعلية بسرعة.
- أغسطس 2023: جولة تمويل من السلسلة D بقيمة 235 مليون دولار، مما رفع تقييم الشركة إلى 4.5 مليار دولار. شارك في الجولة كل من Google، وAmazon، وNvidia، وSalesforce، وIntel، وAMD، وIBM[6].
- أبريل 2024: استحواذ الشركة على Pollen Robotics، مما يشير إلى توسيع اهتماماتها في مجال الذكاء الاصطناعي المتجسد (embodied AI)[3].
النظام البيئي لـ Hugging Face
يغطي النظام البيئي لـ Hugging Face دورة حياة تطوير نماذج التعلم الآلي بأكملها — من إعداد البيانات إلى النشر.
Hugging Face Hub - مركز Hugging Face
جوهر النظام البيئي هو Hugging Face Hub — منصة الويب المركزية للعمل التعاوني. وتشمل:
- مستودعات النماذج: مستودعات Git لتخزين النماذج وأوزانها وملفات التكوين. تضمن التحكم في الإصدارات لإمكانية تكرار التجارب.
- مستودعات مجموعات البيانات (Datasets): مستودعات مماثلة لتخزين مجموعات البيانات والتحكم في إصداراتها.
- Spaces: بيئة تفاعلية لإنشاء وعرض تطبيقات الويب (العروض التوضيحية) القائمة على النماذج، باستخدام أطر عمل مثل Gradio وStreamlit.
- بطاقات النماذج (Model Cards): وثائق موحدة تصف خصائص النماذج وقيودها وتحيزاتها المحتملة، مما يساهم في زيادة الشفافية[7].
مكتبة Transformers
Transformers هي المنتج البرمجي الرائد لـ Hugging Face، حيث توفر واجهة برمجة تطبيقات (API) موحدة للوصول إلى آلاف النماذج المدربة مسبقًا. تشمل ميزاتها الرئيسية:
- التوافق مع أطر العمل: تكامل سلس مع PyTorch وTensorFlow وJAX.
- سهولة الاستخدام: يتم تحميل النماذج وإعادة تدريبها واستخدامها في بضعة أسطر من التعليمات البرمجية.
- الكفاءة: تتيح الوصول إلى عدد هائل من النماذج، مما يسمح بتجنب تدريبها من الصفر، وهو ما يوفر الموارد ويقلل من البصمة الكربونية[8].
مكتبات رئيسية أخرى
- Datasets: مكتبة للوصول الفعال إلى مجموعات البيانات ومعالجتها باستخدام تنسيق Apache Arrow.
- Tokenizers: مكتبة عالية الأداء مكتوبة بلغة Rust لترميز (tokenization) النصوص.
- Accelerate: تبسط التدريب الموزع على وحدات معالجة رسوميات (GPU) أو وحدات معالجة الموترات (TPU) متعددة.
- PEFT (Parameter-Efficient Fine-Tuning): مكتبة لأساليب الضبط الدقيق الفعال من حيث المعلمات للنماذج الكبيرة.
- Safetensors: تنسيق آمن وسريع لتخزين أوزان الشبكات العصبية، أصبح المعيار الافتراضي في النظام البيئي.
نموذج العمل والموقع في السوق
تستخدم Hugging Face نموذج عمل "freemium"، الذي يجمع بين الوصول المفتوح والعروض التجارية للعملاء من الشركات.
- المستوى المجاني (Free Tier): يوفر استضافة غير محدودة للمستودعات العامة، مما يجذب ملايين المستخدمين.
- مصادر الدخل:
- اشتراك PRO: اشتراك فردي (9 دولارات شهريًا) مع حدود موسعة.
- Enterprise Hub: منتج للشركات (يبدأ من 20 دولارًا لكل مستخدم شهريًا) مع أمان معزز، وتسجيل دخول موحد (SSO)، وخيارات نشر محلية (on-premise)، ودعم ذي أولوية.
- الموارد الحوسبية المدفوعة: الوصول المدفوع إلى قدرات حوسبية للتدريب والاستدلال عبر خدمات مثل Inference Endpoints.
تضع الشركة نفسها كمنصة بنية تحتية محايدة — "سويسرا عالم الذكاء الاصطناعي" — وتبني شراكات عميقة مع كبار مزودي الخدمات السحابية (AWS، وGoogle Cloud، وMicrosoft Azure) ومصنعي الأجهزة.
مهمة دمقرطة الذكاء الاصطناعي
العنصر المركزي في هوية Hugging Face هو مهمة دمقرطة الذكاء الاصطناعي، التي يتم تحقيقها من خلال مبادئ المصدر المفتوح والعلم المفتوح.
تجسيد بارز لهذه الفلسفة هو مبادرة البحث BigScience. هذه الورشة الدولية المفتوحة، التي نظمتها Hugging Face، جمعت أكثر من 1000 باحث. كانت نتيجتها نموذج BLOOM — وهو نموذج لغوي كبير متعدد اللغات (176 مليار معلمة)، تم إصداره بموجب ترخيص Responsible AI License، الذي يسمح بالاستخدام الواسع ولكنه يفرض قيودًا على التطبيقات في المجالات عالية المخاطر[9].
روابط خارجية
المراجع
- ↑ 1.0 1.1 «What is Hugging Face? A Beginners Guide». 365 Data Science. [١]
- ↑ «What is Hugging Face?». IBM. [٢]
- ↑ 3.0 3.1 3.2 «Hugging Face». Wikipedia. [٣]
- ↑ «What is Brief History of Hugging Face Company». Canvas Business Model. [٤]
- ↑ «The Transformers Library: standardizing model definitions». Hugging Face Blog. [٥]
- ↑ «HuggingFace Statistics». Originality.ai. [٦]
- ↑ «Model Cards». Hugging Face Docs. [٧]
- ↑ «Transformers». Hugging Face Docs. [٨]
- ↑ «bigscience/bloom». Hugging Face. [٩]