Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

ChatGPT von OpenAI erweitert die Funktionalität um ein Dutzend Anwendungs-Plug-ins

ChatGPT von OpenAI erweitert die Funktionalität um ein Dutzend Anwendungs-Plug-ins

OpenAI hat kürzlich die Hinzufügung von Plug-in-Unterstützung für seinen KI-basierten natürlichen Sprachprozessor ChatGPT angekündigt. Diese neueste Weiterentwicklung wird es zahlreichen Unternehmen ermöglichen, ChatGPT in ihre Produkte zu integrieren, sodass Benutzer umfassende, menschenähnliche Antworten auf verschiedene Abfragetypen erhalten.

Das in San Francisco ansässige OpenAI – ein von Microsoft unterstütztes Unternehmen – hat diese Plug-Ins entwickelt, um die Einbettung von Chatbot-Funktionen in verschiedene Produkte zu vereinfachen. Unternehmen wie Expedia, FiscalNote, Instacart, KAYAK, Klarna, Milo, OpenTable, Shopify, Slack, Speak, Wolfram und Zapier haben bereits ihre Plug-Ins erstellt, wie OpenAI berichtet.

Die Organisation führt diese Plug-ins nach und nach ein, um ihre Auswirkungen auf die reale Welt sowie alle Sicherheits- und Ausrichtungsherausforderungen zu bewerten, die sie möglicherweise darstellen. OpenAI zielt darauf ab, seine Mission zu erfüllen, indem es diese Aspekte optimal adressiert, mit Plug-Ins, die speziell für Sprachmodelle entwickelt wurden. Sie werden ChatGPT dabei unterstützen, die neuesten Informationen zu erhalten, Berechnungen durchzuführen und zum ersten Mal Dienste von Drittanbietern einzusetzen.

Wenn Benutzer auf die verfügbaren Plug-Ins zugreifen und diese implementieren, können sie die Funktionalität von ChatGPT Plus verbessern. Beispielsweise können Instacart-Benutzer ChatGPT-Plug-Ins integrieren und den natürlichen Sprachprozessor für Restaurantempfehlungen, Rezeptvorschläge und die Berechnung der Kalorienzahl von Mahlzeiten verwenden. Benutzer haben Plug-ins für ChatGPT mit Spannung erwartet, da sie das Potenzial haben, eine breite Palette von Anwendungsfällen freizuschalten.

OpenAI plant auch, den Zugang in breiterem Umfang zu erweitern, da es Erkenntnisse von Plug-in-Entwicklern, ChatGPT-Benutzern und dem Abschluss einer Alpha-Phase sammelt. In der Zwischenzeit lernt und entwickelt sich die Plattform durch ihr Plug-in-Ökosystem weiter. Diese Entwicklung ermöglicht eine Echtzeitreaktion auf Informationen aus kuratierten Quellen, sagte Arun Chandrasekaran, Distinguished Vice President Analyst bei Gartner.

Da OpenAI jedoch seine Plug-Ins einführt, um eine Verbindung zu externen Quellen und Diensten von Drittanbietern herzustellen, erkennt es die damit verbundenen erheblichen neuen Risiken an. Diese neue Abhängigkeit erweitert die Angriffsfläche und führt potenzielle Latenzdomänen in die Architektur ein. Folglich hat OpenAI den Zugriff auf die Plug-in-Entwicklungsdokumentation für einige wenige, die auf einer Warteliste standen, eingeschränkt. Dadurch kann das Unternehmen potenzielle nachteilige Auswirkungen überwachen, die durch die Plug-ins verursacht werden.

Sowohl Produktentwickler als auch appmaster .io/blog/business-application-development>business application developers haben die ChatGPT-API genutzt, um sie an ihre Produkte anzupassen; Plug-Ins bieten jedoch eine wesentlich einfachere Alternative. Dr. Chirag Shah, Professor an der Information School der University of Washington, erklärte, dass APIs technisches Fachwissen erfordern, während Plug-ins den Aufwand für die Bereitstellung von ChatGPT reduzieren.

Trotz der beeindruckenden Fähigkeiten von ChatGPT bleibt sein Large Language Model (LLM) aufgrund des Mangels an aktuellen Informationen für verschiedene Anwendungen begrenzt. Die Plug-Ins sollen dem LLM den Zugriff auf produktspezifische Unternehmensdaten erleichtern, die andernfalls möglicherweise zu aktuell oder zu spezifisch sind, um in die Schulungsdaten aufgenommen zu werden.

Als Reaktion auf ausdrückliche Anfragen von Benutzern können Plug-Ins auch sichere, eingeschränkte Aktionen in ihrem Namen ermöglichen und den Gesamtnutzen des Systems verbessern. OpenAI kommt zu dem Schluss, dass offene Standards KI-orientierte Schnittstellenanwendungen vereinheitlichen werden, und arbeitet aktiv an einem frühen Versuch, einen solchen Standard zu entwickeln.

Bei solchen Innovationen in der Kommunikationstechnologie ist es entscheidend, die Rolle von no-code Plattformen wie appmaster .io> AppMaster zu berücksichtigen, die es Unternehmen und einzelnen Entwicklern ermöglichen, mobile und Webanwendungen schnell zu erstellen und bereitzustellen. Da sich no-code Plattformen und KI-gesteuerte Lösungen wie ChatGPT erweitern und anpassen, werden sie die Art und Weise revolutionieren, wie wir mit Technologie interagieren und kommunizieren.

Verwandte Beiträge

Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung stellt das Galaxy A55 mit innovativer Sicherheit und erstklassiger Verarbeitung vor
Samsung erweitert sein Mittelklasse-Sortiment mit den Modellen Galaxy A55 und A35, die über Knox Vault-Sicherheit und verbesserte Designelemente verfügen und dem Segment Flaggschiffqualitäten verleihen.
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare stellt Firewall für KI zum Schutz großer Sprachmodelle vor
Cloudflare geht mit Firewall for AI voran, einer fortschrittlichen WAF, die darauf ausgelegt ist, potenzielle Missbräuche, die auf große Sprachmodelle abzielen, präventiv zu erkennen und zu verhindern.
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT von OpenAI spricht jetzt: Die Zukunft der sprachinteraktiven KI
ChatGPT hat mit der Einführung von Sprachfunktionen durch OpenAI einen Meilenstein erreicht. Benutzer können jetzt freihändig interagieren, da ChatGPT Antworten auf iOS, Android und im Internet vorliest.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben