亚马逊的AI使用麦克风阵列来定位房间中的多个扬声器
在预定于下个月在国际声学,语音和信号处理国际会议(ICASSP)上发表的技术论文中,一组亚马逊研究人员提出了一种AI驱动的方法来进行多源本地化,或者是估计声音质量的问题。使用麦克风音频定位。他们说,在涉及真实和模拟数据(前者来自AV16.3语料库)和多达三个同时活动的声源的实验中,与最新的信号相比,该方法显示出将近15%的改进,处理模型。
解决多源本地化问题是开发足够强大的智能扬声器,智能显示器甚至视频会议软件的必不可少的步骤。这是因为它是波束赋形的核心,它是一种将信号(在这种情况下为声音)聚焦到接收设备(麦克风)的技术。亚马逊自己的Echo系列产品利用波束赋形来提高语音识别的准确性,谷歌的Nest Hub和苹果的HomePod也是如此。
朝向麦克风阵列传播的声音将在不同的时间到达每个麦克风,这种现象可被用来查明声源的位置。对于单个声源,计算相对简单,但是对于多个声源,计算却成倍地复杂。
已经提出了针对多源本地化问题的各种AI和机器学习解决方案,但其中许多都有局限性。
当可能的声音数量超过模型输出的数量时,可能会怀疑哪个声音对应哪个输出。例如,如果模型学习将一组坐标与一个说话者关联,并将另一组坐标与两个其他说话者关联,则不清楚当另外两个说话者同时讲话时哪个输出与哪个说话者关联。一种解决方案是将麦克风阵列周围的空间表示为3D网格,从而在给定一组输入信号的情况下,使模型能够输出一种声音源自每个网格点的概率。但这具有主要缺点,其中主要的困难在于本地化离网资源,创建包含每个点的所有声音组合的语料库以及提高超出网格分辨率的准确性的困难。
亚马逊团队的模型首先将声音定位到粗略定义的区域,然后将声音精确地定位在这些区域内。如果它包含至少一个源,则认为该区域处于活动状态,并且假定在任何活动区域中最多可以有一个活动源。因为每个粗略区域在模型的输出层中都有一组指定的节点,所以对于给定区域中的哪个声源与位置估计相关联不会有任何歧义。
对于每个区域,模型都会计算该区域包含一个源的概率,以及源与麦克风阵列中心之间的距离以及源相对于阵列的角度。它从麦克风中摄取多通道原始音频,并输出上述三个量,从而是端到端的—该模型处理原始音频,从而避免了预处理或后处理的需要。