Будущее разработки ботов сделало революционный шаг вперед с представлением Amazon Amazon Lex, их сложного инструмента, предназначенного для создания тонких интерфейсов чат-ботов. Примечательно, что разработчики теперь могут использовать базовый естественный язык для создания и улучшения чат-ботов, иллюстрируя мощь, которую можно использовать благодаря растущим возможностям платформы по генеративному искусственному интеллекту.
Теперь разработчики могут простым способом сформулировать задачи, которые им необходимо реализовать с помощью сервиса, например, бронирование отеля, в котором указаны данные гостей и способ оплаты. Это было продемонстрировано в сообщении в блоге компании, в котором эта функциональность привлекла всеобщее внимание.
Это нововведение продвигает платформу вперед, позволяя разработчикам избежать трудоемкого процесса ручного проектирования каждого компонента бота, такого как намерения, потенциальные пути, подсказки и ответы бота, и это лишь некоторые из них. Sandeep Srinivasan, старший менеджер по продуктам Amazon Lex в AWS, подчеркнул эту простоту доступа в недавнем интервью.
Отличительной особенностью Amazon Lex является его врожденная способность управлять сложным взаимодействием человека и бота. В ситуациях, когда платформа натыкается на неясную часть разговора, она полагается на базовую модель большого языка ИИ (LLM), выбранную создателем бота, чтобы протянуть руку помощи.
Последние улучшения также включают встроенную функцию, позволяющую чат-ботам автономно обрабатывать распространенные запросы (часто задаваемые вопросы). Разработчики определяют основные функции бота, затем интегрированный искусственный интеллект берет на себя управление и получает ответы из назначенного источника для ответа на запросы пользователей.
Amazon Lex дополняет свои возможности новой встроенной функцией QnAIntent, объединяющей процесс вопросов и ответов непосредственно в структуру намерений. Эта функция подключается к LLM для поиска утвержденного источника знаний для получения соответствующего ответа. Эта функция, которая в настоящее время находится на рассмотрении, основана на базовых моделях, размещенных на Amazon Bedrock, сервисе, предлагающем множество опций FM от многочисленных фирм, занимающихся искусственным интеллектом. Srinivasan отметил, что в будущем они намерены расширить свою деятельность на другие программы LLM.
Kathleen Carley, выдающийся профессор Института безопасности и конфиденциальности CyLab при Университете Карнеги-Меллона, назвала Amazon Lex системой, включающей несколько подсистем, многие из которых содержат генеративный искусственный интеллект. Carley предполагает, что встраивание большой языковой модели в Amazon Lex обеспечивает более точные и естественные ответы на стандартные вопросы ботов.
Развивая свое мастерство в области искусственного интеллекта, Amazon сосредоточена на создании собственной LLM под кодовым названием «Olympus». Эта модель, адаптированная к требованиям Amazon, содержит ошеломляющие 2 триллиона параметров, превосходя по производительности GPT-4 OpenAI, который может похвастаться 1 триллионом параметров.
Недавние достижения в Amazon Lex могут спровоцировать революцию в кодировании, вызванную генеративным искусственным интеллектом. Разработчики начинают тестировать ChatGPT для задач по кодированию, демонстрируя потенциал, особенно в задачах проверки кода.
Эта развивающаяся технология, вероятно, повлияет на то, как мы используем более простые инструменты, не требующие особых технических знаний, такие как платформы low-code и no-code, включая такие платформы, как AppMaster . Помощники по программированию, такие как GitHub Copilot, теперь повышают свою роль: от объяснения кода до сводки обновлений и проверок безопасности, прогнозируя новые тенденции в сфере разработки.