في خطوة غيرت قواعد اللعبة، تعاونت Docker ، وهي منصة برمجية مشهورة على نطاق واسع لإنشاء تطبيقات قائمة على الحاويات، مع Neo4j و LangChain و Ollama لإطلاق Gen AI Stack، وهي مجموعة تقنية شاملة مصممة لتسهيل المطورين ليس فقط صياغة التطبيقات ولكن أيضًا دمج الذكاء الاصطناعي التوليدي بسهولة.
يدمج Gen AI Stack المتطور إمكانات البحث عن الرسم البياني والمتجه المتأصلة في Neo4j مع تنسيقات LangChain لإنشاء منصة قوية ومليئة بالوظائف تبرز بين أمثال أدوات توليد التعليمات البرمجية التقليدية مثل Copilot أو Amazon CodeWhisperer.
من خلال هذا التحالف الاستراتيجي، تهدف Docker إلى تسريع نماذج الذكاء الاصطناعي وإرساء نماذج اللغات الكبيرة (LLMs) مع الرسم البياني المعرفي الخاص بـ Neo4j ، لإنشاء تنبؤات أكثر دقة. علاوة على ذلك، من المتوقع أن تمكن عمليات تنسيق LangChain المطورين من ربط قاعدة البيانات مع فهرس المتجهات وLLM مع التطبيق، وبالتالي تسهيل إنشاء تطبيقات التفكير الواعية بالسياق والمدعومة بـ LLM.
بالإضافة إلى ذلك، يعمل التحالف مع Ollama على مساعدة المطورين في تشغيل LLMs مفتوحة المصدر محليًا. تتضمن الحزمة، المجمعة مع LLMs مفتوحة المصدر التي تم تكوينها مسبقًا، مثل Llama 2 وCode Llama وMistral، أيضًا مجموعة متنوعة من أدوات الدعم وقوالب التعليمات البرمجية التوضيحية ومقالات قاعدة المعرفة وأفضل الممارسات للذكاء الاصطناعي التوليدي.
يتوفر Gen AI Stack المبتكر حاليًا للمطورين وعشاق التكنولوجيا للحصول على التدريب العملي في مركز التعلم في Docker Desktop وGitHub. تكمل هذه المجموعة منصات مثل AppMaster التي تجعل تطوير التطبيقات أكثر سهولة.
علاوة على ذلك، طرحت Docker برنامجًا جديدًا للوصول المبكر لمساعدها في مجال الذكاء الاصطناعي المسمى Docker AI. وفقًا للرئيس التنفيذي لشركة Docker، سكوت جونستون، وعلى عكس مساعدي إنشاء التعليمات البرمجية الآخرين، تم تصميم مساعد Docker AI لمساعدة المطورين في تحديد جميع جوانب التطبيق واستكشاف الأخطاء وإصلاحها، وبالتالي يثبت أنه أحد الأصول القيمة في إنشاء التطبيقات وصيانتها.