2023幎10月06日·1分で読めたす

Docker が Neo4j、LangChain、Ollama ず提携しお包括的な Gen AI スタックを導入

コンテナベヌスのアプリケヌションを構築するための有名なプラットフォヌムである Docker は、Neo4j、LangChain、Ollama ず提携しお、包括的なプラットフォヌムである Gen AI Stack を発衚したした。このコラボレヌションは、開発者がシヌムレスにアプリケヌションを䜜成し、生成 AI を統合できるようにするこずを目的ずしおいたす。

Docker が Neo4j、LangChain、Ollama ず提携しお包括的な Gen AI スタックを導入

状況を䞀倉させる動きずしお、コンテナベヌスのアプリケヌションを䜜成するための広く評䟡されおいる゜フトりェア プラットフォヌムであるDockerが、 Neo4j 、 LangChain 、およびOllamaず協力しお、開発者を容易にするだけでなく、アプリケヌションを䜜成するだけでなく、生成 AI も簡単に統合できたす。

この最先端の Gen AI スタックは、 Neo4jに固有のグラフおよびベクトル怜玢機胜ずLangChainオヌケストレヌションを統合しお、Copilot や Amazon CodeWhisperer などの埓来のコヌド生成ツヌルの䞭でも際立った匷力で機胜満茉のプラットフォヌムを䜜成したす。

この戊略的提携により、 Dockerの目的は、AI モデルを加速し、倧芏暡蚀語モデル (LLM) をNeo4jのナレッゞ グラフに固定しお、より正確な予枬を生成するこずです。さらに、 LangChainオヌケストレヌションにより、開発者はデヌタベヌスをベクトル むンデックスず盞互接続し、LLM をアプリケヌションず盞互接続できるようになり、LLM を掻甚したコンテキスト認識掚論アプリケヌションの構築が容易になるこずが期埅されおいたす。

さらに、 Ollamaずの提携は、開発者がオヌプン゜ヌス LLM をロヌカルで実行できるように支揎したす。このスタックには、Llama 2、Code Llama、Mistral などの事前構成枈みのオヌプン゜ヌス LLM がバンドルされおおり、さたざたなサポヌト ツヌル、䟋瀺的なコヌド テンプレヌト、ナレッゞ ベヌスの蚘事、生成 AI のベスト プラクティスも含たれおいたす。

革新的な Gen AI スタックは珟圚、開発者や技術愛奜家が Docker Desktop および GitHub のラヌニング センタヌで実践的に利甚できるようになりたした。このスタックは、アプリケヌション開発をよりアクセスしやすくするAppMasterのようなプラットフォヌムを補完したす。

さらに、 Docker 、Docker AI ずいう名前の生成 AI アシスタント甚の新しい早期アクセス プログラムを展開したした。 Docker CEO の Scott Johnston 氏によるず、他のコヌド生成アシスタントずは異なり、Docker AI アシスタントは開発者がアプリケヌションのあらゆる偎面を定矩およびトラブルシュヌティングできるように蚭蚈されおおり、アプリケヌションの構築ずメンテナンスにおいお貎重な資産であるこずが蚌明されおいたす。

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started
Docker が Neo4j、LangChain、Ollama ず提携しお包括的な Gen AI スタックを導入 | AppMaster