Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,926,084字

该文章投稿至Nemo社区   资讯  板块 复制链接


苹果解释HomePod如何精确识别用户指令

发布于 2018/12/04 14:19 708浏览 0回复 379

在苹果机器学习博客的最新一篇文章中,苹果音频软件工程团队解释了智能扬声器语音检测遇到的挑战,以及如何使用在HomePod A8芯片上运行的机器学习模型来帮助提高远场精度。

HomePod必须能够在播放嘈杂的音乐时保持识别精度,即使在说话的人离它很远时,也能够精确识别命令,将用户的指令和房间内的其他声音隔离开来,比如电视或者嘈杂的设备等等。

和以往一样,这篇博文的目标读者是其他工程师和科学家,其中使用了非常专业的语言。文中的要点是HomePod使用自定义多通道过滤来消除回声和背景噪音,而非监督学习模型则只关注当房间里有多人说话时说“嘿,Siri”的人。

这篇博文有很多数学公式来解释这个系统的机制,以及他们成功的测试结果。苹果公司说,多通道声音处理器只使用了HomePod内部的A8芯片不到15%的单核性能,这一点很重要,因为该团队一直在优化能源效率。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/398/375.htm]

本文标签
 {{tag}}
点了个评