Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Docker arbeitet mit Neo4j, LangChain und Ollama zusammen, um einen umfassenden KI-Stack der Generation einzuführen

Docker arbeitet mit Neo4j, LangChain und Ollama zusammen, um einen umfassenden KI-Stack der Generation einzuführen

In einem bahnbrechenden Schritt hat sich Docker, eine weithin anerkannte Softwareplattform für die Erstellung von Container-basierten Anwendungen, mit Neo4j, LangChain und Ollama zusammengetan, um den Gen AI Stack auf den Markt zu bringen, eine umfassende Technologie-Suite, die Entwickler nicht nur dabei unterstützen soll Erstellen von Anwendungen, aber auch die mühelose Integration generativer KI.

Dieser hochmoderne AI-Stack der Generation vereint die in Neo4j enthaltenen Diagramm- und Vektorsuchfunktionen mit LangChain Orchestrierungen, um eine leistungsstarke, funktionsreiche Plattform zu schaffen, die sich von herkömmlichen Tools zur Codegenerierung wie Copilot oder Amazon CodeWhisperer abhebt.

Mit dieser strategischen Allianz möchte Docker KI-Modelle beschleunigen und große Sprachmodelle (LLMs) mit dem Wissensgraphen von Neo4j verankern, um präzisere Vorhersagen zu generieren. Darüber hinaus wird erwartet, dass LangChain Orchestrierungen es Entwicklern ermöglichen, die Datenbank mit dem Vektorindex und das LLM mit der Anwendung zu verbinden, wodurch die Erstellung kontextbewusster Argumentationsanwendungen auf Basis der LLMs erleichtert wird.

Darüber hinaus dient die Allianz mit Ollama dazu, Entwickler bei der lokalen Ausführung von Open-Source-LLMs zu unterstützen. Der Stack, der mit vorkonfigurierten Open-Source-LLMs wie Llama 2, Code Llama und Mistral gebündelt ist, umfasst außerdem eine Vielzahl von Support-Tools, anschaulichen Codevorlagen, Wissensdatenbankartikeln und Best Practices für generative KI.

Der innovative Gen AI Stack ist derzeit für Entwickler und Technikbegeisterte verfügbar, um ihn im Learning Center in Docker Desktop und GitHub praktisch auszuprobieren. Dieser Stack ergänzt Plattformen wie AppMaster, die die Anwendungsentwicklung leichter zugänglich machen.

Darüber hinaus hat Docker ein neues Early-Bird-Access-Programm für seinen generativen KI-Assistenten namens Docker AI eingeführt. Laut Scott Johnston, CEO von Docker, ist der Docker-KI-Assistent im Gegensatz zu anderen Assistenten zur Codegenerierung darauf ausgelegt, Entwickler bei der Definition und Fehlerbehebung aller Aspekte einer Anwendung zu unterstützen, und erweist sich somit als wertvolles Hilfsmittel bei der Anwendungskonstruktion und -wartung.

Verwandte Beiträge

Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung erweitert sein Mittelklasse-Sortiment mit den Modellen Galaxy A55 und A35, die über Knox Vault-Sicherheit und verbesserte Designelemente verfügen und dem Segment Flaggschiffqualitäten verleihen.
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare geht mit Firewall for AI voran, einer fortschrittlichen WAF, die darauf ausgelegt ist, potenzielle Missbräuche, die auf große Sprachmodelle abzielen, präventiv zu erkennen und zu verhindern.
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT hat mit der Einführung von Sprachfunktionen durch OpenAI einen Meilenstein erreicht. Benutzer können jetzt freihändig interagieren, da ChatGPT Antworten auf iOS, Android und im Internet vorliest.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben