亚马逊网络服务 (AWS) 周一宣布,它正在将基于机器学习 (ML) 的呼叫分析功能集成到 Amazon Chime SDK 中,旨在简化从实时音频呼叫、转录和语音分析中生成见解的过程。 Amazon Chime SDK 是一个软件开发工具包,使开发人员能够在 Web 或移动应用程序中实施消息传递、音频、视频和屏幕共享功能。
通过这些更新,开发人员现在能够将 ML 支持的语音分析整合到他们的应用程序中。据 AWS 称,ML 模型可以检测参与者的语气并对其进行分类,无论他们表达的是积极、中立还是消极情绪。 AWS 首席开发倡导者 Sébastien Stormacq 在一篇博文中解释说,语音音调分析使用 ML 通过联合分析语音信号中的词汇、语言、声学和音调信息来推断情绪。
Stormacq 表示,来自实时呼叫语音分析的数据可在开发人员选择的数据湖中访问,然后可用于创建自定义仪表板以实现数据可视化。 AWS 观察到各个行业对呼叫分析功能的强烈需求,例如银行、金融服务、业务流程外包 (BPO)、公共部门、医疗保健、电信和保险。从呼叫分析中收集的见解可以提高销售策略、员工生产力和整体企业效率。
除了将呼叫分析集成到 SDK 之外,AWS 还更新了 AWS 管理控制台,即所有 AWS 服务的集中部分,以简化使用 SDK 在应用程序中实施呼叫分析功能的过程。 AWS 管理控制台的 Amazon Chime SDK 部分现在提供图形配置,允许开发人员将分析整合到音频应用程序中,而无需云基础设施、电话或人工智能方面的专业知识,也不必编写代码。
开发人员可以选择他们喜欢使用的 AWS AI 服务来分析实时音频数据,例如语音分析、Amazon Transcribe 或 Amazon Transcribe Call Analytics。 Stormacq 提到 AWS 处理 AI 服务与基于语音或电话应用程序之间的集成。管理控制台可帮助开发人员指定他们希望将分析数据定向到 Amazon Kinesis 流或 Amazon Simple Storage Service (Amazon S3) 存储桶的位置。来自语音分析的实时通知可以发送到基于 AWS Lambda 的函数或 SQS 队列或 Amazon Simple Notification Service 主题。
为了将收集到的见解可视化,企业必须首先将分析结果传送到数据湖,然后使用 Amazon QuickSight 或 Tableau 等服务创建仪表板。然后可以将这些仪表板嵌入到应用程序、wiki 和门户中,或者以 AWS CloudFormation 模板的形式下载为预构建的仪表板,以便部署在 AWS 账户中。呼叫分析还可以通过将事件发布到 Amazon EventBridge 来生成实时警报,Amazon EventBridge 可以集成到 AWS 账户或任何其他第三方应用程序中。
虽然新的呼叫分析功能不需要任何基础设施投资,但 AWS 会根据使用量向企业收费。定价取决于每分钟分析的音频数据量,并且可能因数据中心位置而异。这些呼叫分析功能目前在美国东部(弗吉尼亚北部)、亚太地区(新加坡)和欧洲(法兰克福)区域可用。
除了 AWS 产品之外, AppMaster.io等low-code和no-code平台近来发展势头迅猛,改变了企业开发和维护其应用程序的方式。 AppMaster是一个拥有超过 60,000 名用户的no-code平台,它允许专业人士以传统开发方法所花费的成本和时间的一小部分来创建 Web、移动和后端应用程序。通过自动化应用程序开发流程, AppMaster等平台提高了银行、医疗保健和保险等各个行业的敏捷性。