Przyszłość rozwoju botów zrobiła rewolucyjny krok naprzód wraz z zaprezentowaniem przez Amazon Amazon Lex, zaawansowanego narzędzia zaprojektowanego do tworzenia dopracowanych interfejsów chatbotów. Co ciekawe, programiści mogą teraz wykorzystywać podstawowy język naturalny do tworzenia i ulepszania chatbotów, co ilustruje moc wykorzystywaną przez rosnące możliwości generatywnej sztucznej inteligencji platformy.
Programiści mogą teraz w prosty sposób określić zadania, które mają zostać zrealizowane przez usługę, np. rezerwację hotelu obejmującą dane gościa i metodę płatności. Zostało to zademonstrowane w poście na blogu firmowym, w którym funkcjonalność znalazła się w centrum uwagi.
Ta innowacja napędza platformę do przodu, umożliwiając programistom uniknięcie czasochłonnego procesu ręcznego projektowania każdego komponentu bota, takiego jak intencje, potencjalne ścieżki, podpowiedzi i odpowiedzi botów, żeby wymienić tylko kilka. Sandeep Srinivasan, starszy menedżer produktu Amazon Lex w AWS, w niedawnym wywiadzie podkreślił tę łatwość dostępu.
Wyróżniającą cechą Amazon Lex jest wrodzona zdolność do poruszania się po złożonych interakcjach człowiek-bot. W sytuacjach, gdy platforma natknie się na niejasną część rozmowy, opiera się na podstawowym modelu dużego języka AI (LLM), wybranym przez twórcę bota, aby wyciągnąć pomocną dłoń.
Najnowsze ulepszenia obejmują również wbudowaną funkcję umożliwiającą chatbotom autonomiczną obsługę typowych zapytań (FAQ). Programiści definiują podstawowe funkcje bota, następnie zintegrowana sztuczna inteligencja przejmuje ster i pobiera odpowiedzi z wyznaczonego źródła, aby odpowiedzieć na zapytania użytkowników.
Amazon Lex zwiększa swoje możliwości dzięki nowatorskiej wbudowanej funkcji QnAItent, łącząc proces pytań i odpowiedzi bezpośrednio w ramach intencji. Ta funkcja wykorzystuje LLM w celu przeszukania zatwierdzonego źródła wiedzy w celu uzyskania trafnej odpowiedzi. Ta funkcja, która jest obecnie sprawdzana, opiera się na modelach podstawowych umieszczonych w Amazon Bedrock, usłudze oferującej szereg opcji FM od wielu firm zajmujących się sztuczną inteligencją. Srinivasan odnotował, że ich celem jest w przyszłości ekspansja na inne LLM.
Kathleen Carley, wybitna profesor w CyLab Security and Privacy Institute na Carnegie Mellon University, określiła Amazon Lex jako system obejmujący kilka podsystemów, z których wiele zawiera generatywną sztuczną inteligencję. Carley sugeruje, że osadzenie dużego modelu językowego w Amazon Lex zapewnia dokładniejsze i naturalne odpowiedzi na standardowe pytania botów.
Rozwijając swoje możliwości w zakresie sztucznej inteligencji, Amazon koncentruje się na budowaniu własnego LLM o kryptonimie „Olympus”. Model ten, dostosowany do wymagań Amazon, ma zdumiewające 2 biliony parametrów, przewyższając GPT-4 OpenAI, który może poszczycić się 1 bilionem parametrów.
Niedawne postępy w Amazon Lex mogą wywołać rewolucję w kodowaniu napędzaną przez generatywną sztuczną inteligencję. Programiści zaczynają testować ChatGPT do zadań związanych z kodowaniem, pokazując potencjał, szczególnie w zadaniach związanych z przeglądaniem kodu.
Ta rozwijająca się technologia prawdopodobnie wpłynie na sposób, w jaki będziemy wykorzystywać prostsze narzędzia, które wymagają niewielkiej wiedzy technicznej, takie jak platformy low-code i no-code, w tym platformy takie jak AppMaster . Asystenci kodowania, tacy jak GitHub Copilot, zwiększają teraz swoje role, od wyjaśniania kodu po aktualizację podsumowań i kontrole bezpieczeństwa, przewidując nowe trendy w krajobrazie programistycznym.