状況を一変させる動きとして、コンテナベースのアプリケーションを作成するための広く評価されているソフトウェア プラットフォームであるDockerが、 Neo4j 、 LangChain 、およびOllamaと協力して、開発者を容易にするだけでなく、アプリケーションを作成するだけでなく、生成 AI も簡単に統合できます。
この最先端の Gen AI スタックは、 Neo4jに固有のグラフおよびベクトル検索機能とLangChainオーケストレーションを統合して、Copilot や Amazon CodeWhisperer などの従来のコード生成ツールの中でも際立った強力で機能満載のプラットフォームを作成します。
この戦略的提携により、 Dockerの目的は、AI モデルを加速し、大規模言語モデル (LLM) をNeo4jのナレッジ グラフに固定して、より正確な予測を生成することです。さらに、 LangChainオーケストレーションにより、開発者はデータベースをベクトル インデックスと相互接続し、LLM をアプリケーションと相互接続できるようになり、LLM を活用したコンテキスト認識推論アプリケーションの構築が容易になることが期待されています。
さらに、 Ollamaとの提携は、開発者がオープンソース LLM をローカルで実行できるように支援します。このスタックには、Llama 2、Code Llama、Mistral などの事前構成済みのオープンソース LLM がバンドルされており、さまざまなサポート ツール、例示的なコード テンプレート、ナレッジ ベースの記事、生成 AI のベスト プラクティスも含まれています。
革新的な Gen AI スタックは現在、開発者や技術愛好家が Docker Desktop および GitHub のラーニング センターで実践的に利用できるようになりました。このスタックは、アプリケーション開発をよりアクセスしやすくするAppMasterのようなプラットフォームを補完します。
さらに、 Docker 、Docker AI という名前の生成 AI アシスタント用の新しい早期アクセス プログラムを展開しました。 Docker CEO の Scott Johnston 氏によると、他のコード生成アシスタントとは異なり、Docker AI アシスタントは開発者がアプリケーションのあらゆる側面を定義およびトラブルシューティングできるように設計されており、アプリケーションの構築とメンテナンスにおいて貴重な資産であることが証明されています。