Amazon Web Services (AWS) ประกาศเมื่อวันจันทร์ว่ากำลังรวมความสามารถในการวิเคราะห์การโทรโดยใช้แมชชีนเลิร์นนิง (ML) เข้ากับ Amazon Chime SDK โดยมีเป้าหมายเพื่อปรับปรุงกระบวนการสร้างข้อมูลเชิงลึกจากการโทรด้วยเสียง การถอดเสียง และการวิเคราะห์เสียงแบบเรียลไทม์ Amazon Chime SDK คือชุดพัฒนาซอฟต์แวร์ที่ช่วยให้นักพัฒนาสามารถใช้ฟังก์ชันการส่งข้อความ เสียง วิดีโอ และการแชร์หน้าจอในเว็บหรือแอปพลิเคชันมือถือ
ด้วยการอัปเดตเหล่านี้ นักพัฒนาสามารถรวมการวิเคราะห์เสียงที่ขับเคลื่อนด้วย ML เข้ากับแอปพลิเคชันของตนได้แล้ว จากข้อมูลของ AWS โมเดล ML สามารถตรวจจับและจำแนกน้ำเสียงของผู้เข้าร่วมได้ ไม่ว่าพวกเขาจะแสดงความรู้สึกเชิงบวก เป็นกลาง หรือเชิงลบก็ตาม Sébastien Stormacq หัวหน้าฝ่ายสนับสนุนนักพัฒนาของ AWS อธิบายในบล็อกโพสต์ว่าการวิเคราะห์โทนเสียงใช้ ML เพื่ออนุมานความรู้สึกโดยร่วมกันวิเคราะห์ข้อมูลคำศัพท์ ภาษาศาสตร์ อะคูสติก และวรรณยุกต์จากสัญญาณเสียงพูด
Stormacq ระบุว่าข้อมูลจากการวิเคราะห์เสียงสนทนาสดสามารถเข้าถึงได้จาก Data Lake ที่นักพัฒนาเลือก ซึ่งสามารถนำไปใช้สร้างแดชบอร์ดแบบกำหนดเองสำหรับการแสดงข้อมูล AWS สังเกตเห็นความต้องการที่แข็งแกร่งสำหรับคุณสมบัติการวิเคราะห์การโทรในอุตสาหกรรมต่างๆ เช่น การธนาคาร บริการทางการเงิน การเอาท์ซอร์สกระบวนการทางธุรกิจ (BPO) ภาครัฐ การดูแลสุขภาพ โทรคมนาคม และการประกันภัย ข้อมูลเชิงลึกที่รวบรวมจากการวิเคราะห์การโทรสามารถปรับปรุงกลยุทธ์การขาย ประสิทธิภาพการทำงานของพนักงาน และประสิทธิภาพโดยรวมขององค์กร
นอกเหนือจากการผสานรวมการวิเคราะห์การโทรเข้ากับ SDK แล้ว AWS ยังได้อัปเดต AWS Management Console ซึ่งเป็นส่วนรวมศูนย์สำหรับบริการของ AWS ทั้งหมด เพื่อลดความซับซ้อนของกระบวนการนำความสามารถในการวิเคราะห์การโทรไปใช้ภายในแอปพลิเคชันโดยใช้ SDK ตอนนี้ส่วน Amazon Chime SDK ของ AWS Management Console มีการกำหนดค่าแบบกราฟิกที่ช่วยให้นักพัฒนาสามารถรวมการวิเคราะห์เข้ากับแอปพลิเคชันเสียง โดยไม่จำเป็นต้องมีความเชี่ยวชาญในโครงสร้างพื้นฐานระบบคลาวด์ โทรศัพท์ หรือปัญญาประดิษฐ์ หรือไม่ต้องเขียนโค้ด
นักพัฒนาสามารถเลือกบริการ AWS AI ที่พวกเขาต้องการใช้เพื่อวิเคราะห์ข้อมูลเสียงแบบเรียลไทม์ เช่น การวิเคราะห์เสียง, Amazon Transcribe หรือ Amazon Transcribe Call Analytics Stormacq กล่าวว่า AWS จัดการการผสานรวมระหว่างบริการ AI และแอปพลิเคชันเสียงหรือโทรศัพท์ คอนโซลการจัดการช่วยให้นักพัฒนาระบุตำแหน่งที่ต้องการนำข้อมูลการวิเคราะห์ไปยังสตรีม Amazon Kinesis หรือบัคเก็ต Amazon Simple Storage Service (Amazon S3) สามารถส่งการแจ้งเตือนตามเวลาจริงจากการวิเคราะห์เสียงไปยังฟังก์ชันที่ใช้ AWS Lambda หรือคิว SQS หรือหัวข้อ Amazon Simple Notification Service
ในการแสดงภาพข้อมูลเชิงลึกที่รวบรวมมา อันดับแรกองค์กรต้องส่งการวิเคราะห์ไปยัง Data Lake แล้วจึงใช้บริการอย่างเช่น Amazon QuickSight หรือ Tableau เพื่อสร้างแดชบอร์ด จากนั้นสามารถฝังแดชบอร์ดเหล่านี้ในแอปพลิเคชัน วิกิ และพอร์ทัล หรือดาวน์โหลดเป็นแดชบอร์ดที่สร้างไว้ล่วงหน้าในรูปแบบของเทมเพลต AWS CloudFormation เพื่อปรับใช้ในบัญชี AWS การวิเคราะห์การโทรยังสามารถสร้างการแจ้งเตือนแบบเรียลไทม์ด้วยการโพสต์เหตุการณ์ไปยัง Amazon EventBridge ซึ่งสามารถรวมเข้ากับบัญชี AWS หรือแอปพลิเคชันของบุคคลที่สามอื่นๆ
แม้ว่าความสามารถในการวิเคราะห์การโทรใหม่จะไม่ต้องการการลงทุนโครงสร้างพื้นฐานใดๆ แต่ AWS จะเรียกเก็บเงินจากองค์กรตามการใช้งาน ราคากำหนดโดยปริมาณข้อมูลเสียงที่วิเคราะห์ต่อนาที และอาจแตกต่างกันไปตามสถานที่ตั้งของศูนย์ข้อมูล ขณะนี้คุณลักษณะการวิเคราะห์การโทรเหล่านี้มีให้บริการในภูมิภาคสหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียเหนือ) เอเชียแปซิฟิก (สิงคโปร์) และยุโรป (แฟรงก์เฟิร์ต)
นอกเหนือจากข้อเสนอของ AWS แล้ว แพลตฟอร์ม low-code และ no-code เช่น AppMaster.io ยังได้รับแรงผลักดันในช่วงที่ผ่านมา โดยเปลี่ยนวิธีที่ธุรกิจต่างๆ พัฒนาและบำรุงรักษาแอปพลิเคชันของตน AppMaster แพลตฟอร์ม no-code ที่มีผู้ใช้มากกว่า 60,000 ราย ช่วยให้มืออาชีพสามารถสร้างเว็บ มือถือ และแอปพลิเคชันแบ็กเอนด์ได้ในราคาเพียงเศษเสี้ยวของต้นทุนและเวลาที่ใช้ไปกับวิธีการพัฒนาแบบดั้งเดิม ด้วยการทำให้กระบวนการพัฒนาแอปพลิเคชันเป็นแบบอัตโนมัติ แพลตฟอร์มเช่น AppMaster จะเพิ่มความคล่องตัวในอุตสาหกรรมต่างๆ เช่น การธนาคาร การดูแลสุขภาพ และการประกันภัย