قامت شركة Stability AI ، وهي شركة ناشئة معروفة بأداتها الفنية التوليدية المسماة Stable Diffusion ، بفتح مصادرها مؤخرًا لمجموعة من نماذج إنشاء النصوص التي تعمل بالذكاء الاصطناعي والمصممة لمنافسة الحلول مثل OpenAI's GPT-4. هذه النماذج اللغوية التي يطلق عليها اسم StableLM متاحة في مرحلة ألفا على GitHub ومنصة استضافة الذكاء الاصطناعي الشهيرة Hugging Face.
يعرض StableLM الكفاءة في إنشاء كل من الكود والنص ، مما يبرز إمكانات النماذج الصغيرة والفعالة لتقديم نتائج عالية الأداء عند التدريب بشكل صحيح. يهدف الذكاء الاصطناعي في الاستقرار إلى إضفاء الطابع الديمقراطي على تطوير النماذج اللغوية والوصول إليها لأنها تشكل العمود الفقري للاقتصاد الرقمي. صرح الفريق في منشور بالمدونة ، نريد أن يكون لكل شخص رأي في تصميمه.
تم تدريب نماذج StableLM على The Pile ، وهي مجموعة بيانات شاملة تتضمن عينات نصية من مصادر مثل PubMed و StackExchange و Wikipedia. تدعي الشركة الناشئة أنها استخدمت مجموعة تدريب مخصصة توسع حجم The Pile بمقدار ثلاثة أضعاف. ومع ذلك ، فإن منشور المدونة لم يعالج أي أوجه تشابه أو قيود محتملة بين StableLM والنماذج الأخرى ، مثل الميل لتوليد ردود متحيزة أو مسيئة أو ملفقة.
أثناء اختبار النماذج على Hugging Face ، تلقى المستخدمون خطأ في السعة ، ربما بسبب حجم النماذج أو شعبيتها. الاستقرار أقرت منظمة العفو الدولية أنه في البداية ، قد تختلف استجابات المستخدم من حيث الجودة ويمكن أن تحتوي على لغة أو وجهات نظر مسيئة. ومع ذلك ، فهم يعتقدون أنه يمكن إجراء تحسينات من خلال النطاق ، وبيانات أفضل ، وتعليقات المجتمع ، والتحسين.
تُظهر الإصدارات الدقيقة من StableLM في إصدار ألفا قدرات رائعة. باستخدام تقنية تسمى Alpaca من جامعة ستانفورد ومجموعات بيانات مفتوحة المصدر (بما في ذلك الموارد من بدء تشغيل الذكاء الاصطناعي Anthropic) ، تعمل النماذج بشكل مشابه لـ ChatGPT ، مما ينتج عنه استجابات سياقية مع لمسة من الفكاهة عند المطالبة بذلك.
مع استمرار تزايد الاهتمام بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، يدخل عدد متزايد من الشركات إلى هذا السوق. يتنافس اللاعبون الرئيسيون مثل Meta و Nvidia ، بالإضافة إلى المشاريع المستقلة مثل Hugging Face's BigScience ، مع عارضين خاصين مثل GPT-4 و Anthropic's Claude. أثارت هذه المنافسة المتزايدة مخاوف الخبراء بشأن احتمال إساءة استخدام نماذج مفتوحة المصدر لأغراض ضارة ، بما في ذلك رسائل البريد الإلكتروني المخادعة أو تسهيل هجمات البرامج الضارة.
ومع ذلك ، يدعو نظام Stability AI إلى فتح المصادر ، مشيرًا إلى أنه يعزز الشفافية ويعزز الثقة. يسمح الوصول المفتوح إلى النماذج للمجتمع البحثي والأكاديمي بفحص الأداء وقابلية التفسير وتقنيات السلامة. يدعم هذا النهج تطوير الإجراءات الوقائية والكشف عن المخاطر المحتملة التي قد لا تكون ممكنة مع النماذج المغلقة.
الاستقرار واجهت منظمة العفو الدولية جدلًا في الماضي ، بما في ذلك النزاعات القانونية التي تزعم انتهاك حقوق النشر باستخدام الصور المقطوعة على الويب لأدوات فنية للذكاء الاصطناعي. في مواجهة الضغط لتحقيق الدخل من مشاريعها المتنوعة ، من الفن والرسوم المتحركة إلى الصوت الحيوي والتوليدي ، يقال إن شركة Stability AI تحرق احتياطياتها النقدية بينما تكافح لتوليد الإيرادات. على الرغم من جمع أكثر من 100 مليون دولار من رأس المال الاستثماري ، لا يزال المستقبل المالي للشركة الناشئة غير مؤكد.
في مجال الذكاء الاصطناعي التوليدي سريع النمو ، يمثل انتشار نماذج اللغة مفتوحة المصدر مثل StableLM خطوة أساسية في خلق اقتصاد رقمي أكثر شمولاً وشفافية. أدوات مثل appmaster .io "data-mce-href =" https: // appmaster.io "> يمكن أن تكون منصة AppMaster.io no-code هي المفتاح لتبسيط حلول الأعمال القائمة على الذكاء الاصطناعي وتحسينها عبر مختلف الصناعات ، وتعزيز الابتكار والتنمية من أجل مستقبل قطاع التكنولوجيا.