Die Zukunft der Bot-Entwicklung hat mit der Einführung von Amazon Lex durch Amazon einen revolutionären Schritt nach vorne gemacht, einem hochentwickelten Tool zur Erstellung nuancierter Chatbot-Schnittstellen. Interessanterweise können Entwickler jetzt grundlegende natürliche Sprache verwenden, um Chatbots zu erstellen und zu verbessern, was die Leistungsfähigkeit verdeutlicht, die durch die aufkeimenden generativen KI-Funktionen der Plattform genutzt wird.
Entwickler können jetzt die Aufgaben, die der Dienst umsetzen soll, auf einfache Weise formulieren, z. B. eine Hotelbuchung mit Angaben zu den Gästen und der Zahlungsmethode. Dies wurde in einem Unternehmensblogbeitrag demonstriert, der die Funktionalität ins Rampenlicht rückte.
Diese Innovation treibt die Plattform voran, indem sie es Entwicklern ermöglicht, den zeitaufwändigen Prozess der manuellen Gestaltung jeder Komponente des Bots zu vermeiden, wie z. B. Absichten, potenzielle Pfade, Eingabeaufforderungen und Bot-Antworten, um nur einige zu nennen. Sandeep Srinivasan, Senior Product Manager von Amazon Lex bei AWS, betonte kürzlich in einem Interview diesen einfachen Zugriff.
Ein herausragendes Merkmal von Amazon Lex ist seine angeborene Fähigkeit, komplexe Mensch-Bot-Interaktionen zu steuern. In Situationen, in denen die Plattform auf einen unklaren Teil einer Konversation stößt, verlässt sie sich auf ein KI-basiertes Large Language Model (LLM), das vom Bot-Ersteller ausgewählt wurde, um weiterzuhelfen.
Zu den neuesten Verbesserungen gehört auch eine integrierte Funktion, die es Chatbots ermöglicht, häufig gestellte Fragen (FAQs) autonom zu bearbeiten. Entwickler definieren die Hauptfunktionen des Bots, dann übernimmt eine integrierte KI das Ruder und ruft Antworten von einer bestimmten Quelle ab, um Benutzeranfragen zu beantworten.
Amazon Lex erweitert seine Funktionen um eine neuartige integrierte QnAIntent-Funktion, die den Frage-und-Antwort-Prozess direkt in das Intent-Framework integriert. Diese Funktion greift auf ein LLM zu, um eine genehmigte Wissensquelle nach einer relevanten Antwort zu durchsuchen. Diese Funktion, die derzeit geprüft wird, basiert auf Basismodellen von Amazon Bedrock, einem Dienst, der eine Vielzahl von FM-Optionen zahlreicher KI-Unternehmen anbietet. Srinivasan verwies auf ihr Ziel, in Zukunft auf andere LLM-Studiengänge auszuweiten.
Kathleen Carley, eine angesehene Professorin am CyLab Security and Privacy Institute der Carnegie Mellon University, bezeichnete Amazon Lex als ein System, das mehrere Subsysteme umfasst, von denen viele generative KI beherbergen. Carley schlägt vor, dass die Einbettung eines großen Sprachmodells in Amazon Lex genauere und natürlichere Antworten auf Standardfragen von Bots gewährleistet.
Zur Weiterentwicklung seiner KI-Fähigkeiten konzentriert sich Amazon auf den Aufbau seines proprietären LLM mit dem Codenamen „Olympus“. Dieses auf die Anforderungen von Amazon zugeschnittene Modell verfügt über unglaubliche 2 Billionen Parameter und übertrifft damit OpenAIs GPT-4, das über 1 Billion Parameter verfügt.
Die jüngsten Fortschritte bei Amazon Lex könnten eine Codierungsrevolution auslösen, die durch generative KI vorangetrieben wird. Entwickler beginnen, ChatGPT für Codierungsaufgaben zu testen und zeigen Potenzial, insbesondere bei Codeüberprüfungsaufgaben.
Diese aufkeimende Technologie wird wahrscheinlich Einfluss darauf haben, wie wir einfachere Tools verwenden, die wenig technisches Wissen erfordern, wie low-code und no-code Plattformen, einschließlich Plattformen wie AppMaster . Codierungsassistenten wie GitHub Copilot verstärken jetzt ihre Aufgaben, von der Codeerklärung bis hin zu Update-Zusammenfassungen und Sicherheitsüberprüfungen, und prognostizieren neue Trends in der Entwicklungslandschaft.