L'avenir du développement de robots a franchi une étape révolutionnaire avec le dévoilement par Amazon d' Amazon Lex, leur outil sophistiqué conçu pour créer des interfaces de chatbot nuancées. Curieusement, les développeurs peuvent désormais utiliser un langage naturel de base pour créer et améliorer des chatbots, illustrant ainsi la puissance exploitée grâce aux capacités naissantes d’IA générative de la plateforme.
Les développeurs peuvent désormais articuler les tâches qu'ils demandent au service de mettre en œuvre de manière simple, comme une réservation d'hôtel contenant les détails des clients et le mode de paiement. Cela a été démontré dans un article de blog de l’entreprise qui a mis la fonctionnalité sous les projecteurs.
Cette innovation propulse la plateforme en avant en permettant aux développeurs d'éviter le processus fastidieux de conception manuelle de chaque composant du bot, tel que les intentions, les chemins potentiels, les invites et les réponses du bot, pour n'en nommer que quelques-uns. Sandeep Srinivasan, chef de produit senior d' Amazon Lex chez AWS, a souligné cette facilité d'accès dans une récente interview.
Une caractéristique remarquable d' Amazon Lex est sa capacité innée à naviguer dans des interactions complexes entre humains et robots. Dans les situations où la plate-forme tombe sur une partie peu claire d’une conversation, elle s’appuie sur un grand modèle de langage (LLM) fondamental d’IA, sélectionné par le créateur du bot, pour donner un coup de main.
Les dernières améliorations incluent également une fonctionnalité intégrée permettant aux chatbots de gérer de manière autonome les requêtes courantes (FAQ). Les développeurs définissent les fonctions principales du bot, puis une IA intégrée prend la barre et récupère les réponses d'une source désignée pour répondre aux requêtes des utilisateurs.
Amazon Lex augmente ses capacités avec une nouvelle fonctionnalité intégrée QnAIntent, intégrant le processus de questions et réponses directement dans le cadre d'intention. Cette fonctionnalité s'appuie sur un LLM pour parcourir une source de connaissances approuvée à la recherche d'une réponse pertinente. Cette fonctionnalité, actuellement en cours de révision, s'appuie sur des modèles de base hébergés sur Amazon Bedrock, un service proposant une multitude d'options FM proposées par de nombreuses sociétés d'IA. Srinivasan a souligné son objectif de s'étendre à d'autres LLM à l'avenir.
Kathleen Carley, professeure distinguée au CyLab Security and Privacy Institute de l'Université Carnegie Mellon, a désigné Amazon Lex comme un système englobant plusieurs sous-systèmes, dont beaucoup hébergent une IA générative. Carley suggère que l'intégration d'un grand modèle de langage dans Amazon Lex garantit des réponses plus précises et naturelles aux questions standard des robots.
Renforçant ses prouesses en matière d'IA, Amazon se concentre sur la création de son LLM exclusif, nommé « Olympus ». Ce modèle, adapté aux demandes d' Amazon, comporte un nombre stupéfiant de 2 000 milliards de paramètres, surpassant le GPT-4 d'OpenAI qui possède 1 000 milliards de paramètres.
Les récentes avancées d' Amazon Lex pourraient déclencher une révolution du codage pilotée par l'IA générative. Les développeurs commencent à tester ChatGPT pour les tâches de codage, montrant ainsi son potentiel, en particulier dans les tâches de révision de code.
Cette technologie en plein essor est susceptible d'influencer la façon dont nous utilisons des outils plus simples qui nécessitent peu de connaissances techniques, comme les plateformes low-code et no-code, y compris des plateformes comme AppMaster . Les assistants de codage comme GitHub Copilot intensifient désormais leurs rôles, de l'explication du code au résumé des mises à jour et aux contrôles de sécurité, prédisant les nouvelles tendances dans le paysage du développement.