Trong một động thái thay đổi cuộc chơi, Docker, một nền tảng phần mềm được hoan nghênh rộng rãi để tạo các ứng dụng dựa trên container, đã hợp tác với Neo4j, LangChain và Ollama để ra mắt Gen AI Stack, một bộ công nghệ toàn diện được thiết kế để hỗ trợ các nhà phát triển không chỉ tạo ra các ứng dụng mà còn dễ dàng tích hợp AI tổng hợp.
Gen AI Stack tiên tiến này kết hợp khả năng tìm kiếm đồ thị và vectơ vốn có trong Neo4j với sự phối hợp LangChain để tạo ra một nền tảng mạnh mẽ, đầy đủ chức năng, nổi bật so với các công cụ tạo mã truyền thống như Copilot hoặc Amazon CodeWhisperer.
Với liên minh chiến lược này, mục đích của Docker là tăng tốc các mô hình AI và neo các mô hình ngôn ngữ lớn (LLM) với biểu đồ tri thức của Neo4j, để tạo ra các dự đoán chính xác hơn. Hơn nữa, việc phối hợp LangChain được kỳ vọng sẽ cho phép các nhà phát triển kết nối cơ sở dữ liệu với chỉ mục vectơ và LLM với ứng dụng, từ đó tạo điều kiện thuận lợi cho việc xây dựng các ứng dụng lý luận nhận biết ngữ cảnh do LLM cung cấp.
Ngoài ra, liên minh với Ollama nhằm hỗ trợ các nhà phát triển chạy LLM nguồn mở tại địa phương. Ngăn xếp đi kèm với các LLM nguồn mở được cấu hình sẵn, chẳng hạn như Llama 2, Code Llama và Mistral, cũng bao gồm nhiều công cụ hỗ trợ, mẫu mã minh họa, bài viết cơ sở kiến thức và các phương pháp hay nhất cho AI tổng hợp.
Gen AI Stack cải tiến hiện có sẵn cho các nhà phát triển và những người đam mê công nghệ để thực hành tại Trung tâm Kiến thức trong Docker Desktop và GitHub. Ngăn xếp này khen ngợi các nền tảng như AppMaster giúp việc phát triển ứng dụng dễ tiếp cận hơn.
Hơn nữa, Docker đã triển khai một chương trình truy cập sớm mới cho trợ lý AI tổng quát của họ có tên là Docker AI. Theo Giám đốc điều hành Docker Scott Johnston, không giống như các trợ lý tạo mã khác, trợ lý Docker AI được thiết kế để hỗ trợ các nhà phát triển xác định và khắc phục sự cố tất cả các khía cạnh của ứng dụng, do đó chứng tỏ là tài sản quý giá trong việc xây dựng và bảo trì ứng dụng.