- มหาวิทยาลัยวอชิงตัน (UW) ได้พัฒนาระบบ AI ชื่อ "Target Speech Hearing" ซึ่งช่วยให้ผู้ใช้จดจ่อกับลําโพงตัวเดียวในสภาพแวดล้อมที่มีเสียงดังโดยมองไปที่ลําโพงเหล่านี้เป็นเวลาสามถึงห้าวินาที
- นําเสนอในการประชุม ACM CHI ระบบนี้ใช้แมชชีนเลิร์นนิงเพื่อแยกและขยายเสียงของผู้พูดที่ต้องการแบบเรียลไทม์
- ขณะนี้อยู่ในขั้นตอนการพิสูจน์แนวคิดเทคโนโลยีได้รับการทดสอบกับอาสาสมัคร 21 คนที่รายงานว่ามีความชัดเจนที่ดีขึ้นอย่างมีนัยสําคัญโดยมีแผนในอนาคตที่จะขยายไปยังเอียร์บัดและเครื่องช่วยฟัง
- ข้อความสํารวจกลยุทธ์และเทคโนโลยีเพื่อปรับปรุงประสบการณ์การได้ยินในสภาพแวดล้อมที่มีเสียงดัง โดยเน้น ที่หูฟัง AI การออกแบบเสียงขั้นสูง และเทคโนโลยีตัดเสียงรบกวน
- เน้นย้ําถึงความท้าทายของวัสดุร้านอาหารสมัยใหม่ที่ก่อให้เกิดเสียงรบกวนและการใช้เทคนิคการลดเสียงแม้จะมีปัญหาด้านการบํารุงรักษาและความสวยงาม
- มีการหารือเกี่ยวกับความก้าวหน้าทางเทคโนโลยี เช่น ไมโครโฟนแบบกําหนดทิศทาง การรู้จําเสียงแบบเรียลไทม์ และการกรองเสียงแบบเลือก พร้อมกับข้อกังวลเกี่ยวกับความเป็นส่วนตัวและการใช้งานในทางที่ผิดที่อาจเกิดขึ้น