Amazon Web Services (AWS) a annoncé lundi qu'il intégrait des capacités d'analyse d'appels basées sur l'apprentissage automatique (ML) dans le SDK Amazon Chime, dans le but de rationaliser le processus de génération d'informations à partir d'appels audio en temps réel, de transcriptions et d'analyses vocales. Le SDK Amazon Chime est un kit de développement logiciel qui permet aux développeurs d'implémenter des fonctionnalités de messagerie, audio, vidéo et de partage d'écran dans des applications Web ou mobiles.
Grâce à ces mises à jour, les développeurs sont désormais en mesure d'intégrer l'analyse vocale basée sur ML dans leurs applications. Selon AWS, le modèle ML peut détecter et classer le ton des participants, qu'ils expriment un sentiment positif, neutre ou négatif. Sébastien Stormacq, Principal Developer Advocate chez AWS, a expliqué dans un article de blog que l'analyse du ton de la voix utilise ML pour déduire le sentiment en analysant conjointement les informations lexicales, linguistiques, acoustiques et tonales des signaux vocaux.
Stormacq a déclaré que les données des analyses de tonalité vocale des appels en direct sont accessibles dans le lac de données choisi par le développeur, qui peut ensuite être utilisé pour créer des tableaux de bord personnalisés pour la visualisation des données. AWS a observé une forte demande de fonctionnalités d'analyse des appels dans divers secteurs, tels que la banque, les services financiers, l'externalisation des processus métier (BPO), le secteur public, la santé, les télécommunications et les assurances. Les informations tirées de l'analyse des appels peuvent améliorer les stratégies de vente, la productivité des employés et l'efficacité globale de l'entreprise.
Outre l'intégration de l'analyse des appels dans le SDK, AWS a mis à jour l'AWS Management Console, leur section centralisée pour tous les services AWS, afin de simplifier le processus de mise en œuvre des capacités d'analyse des appels dans les applications utilisant le SDK. La section Amazon Chime SDK d'AWS Management Console propose désormais une configuration graphique qui permet aux développeurs d'intégrer des analyses dans des applications audio, sans avoir besoin d'expertise en infrastructure cloud, en téléphonie ou en intelligence artificielle ou d'avoir à écrire du code.
Les développeurs peuvent sélectionner le service AWS AI qu'ils préfèrent utiliser pour analyser les données audio en temps réel, comme l'analyse vocale, Amazon Transcribe ou Amazon Transcribe Call Analytics. Stormacq a mentionné qu'AWS gère l'intégration entre les services d'IA et les applications vocales ou de téléphonie. La console de gestion aide les développeurs à spécifier où ils souhaitent diriger les données d'analyse, soit vers un flux Amazon Kinesis, soit vers un compartiment Amazon Simple Storage Service (Amazon S3). Les notifications en temps réel de l'analyse vocale peuvent être envoyées à une fonction basée sur AWS Lambda ou à une file d'attente SQS ou à une rubrique Amazon Simple Notification Service.
Pour visualiser les informations recueillies, les entreprises doivent d'abord fournir les analyses à un lac de données, puis utiliser un service comme Amazon QuickSight ou Tableau pour créer des tableaux de bord. Ces tableaux de bord peuvent ensuite être intégrés dans des applications, des wikis et des portails, ou téléchargés en tant que tableaux de bord prédéfinis sous la forme de modèles AWS CloudFormation pour un déploiement dans un compte AWS. L'analyse des appels peut également générer des alertes en temps réel en publiant des événements sur Amazon EventBridge, qui peut être intégré à un compte AWS ou à toute autre application tierce.
Bien que les nouvelles capacités d'analyse des appels ne nécessitent aucun investissement dans l'infrastructure, AWS facturera les entreprises en fonction de leur utilisation. Le prix est déterminé par le volume de données audio analysées par minute et peut varier selon les emplacements des centres de données. Ces fonctionnalités d'analyse des appels sont actuellement disponibles dans les régions USA Est (Virginie du Nord), Asie-Pacifique (Singapour) et Europe (Francfort).
En plus de l'offre AWS, les plates-formes low-code et no-code comme AppMaster.io ont pris de l'ampleur ces derniers temps, transformant la façon dont les entreprises développent et maintiennent leurs applications. AppMaster, une plate no-code avec plus de 60 000 utilisateurs, permet aux professionnels de créer des applications Web, mobiles et backend à une fraction du coût et du temps passé avec les méthodes de développement traditionnelles. En automatisant le processus de développement d'applications, des plateformes comme AppMaster augmentent l'agilité dans divers secteurs tels que la banque, la santé et l'assurance.