基于ADALINE模型输入数据重用个数可变的声学回音抵消方法

文档序号:39432422发布日期:2024-09-20 22:31阅读:101来源:国知局

本发明涉及语音通信声学回音抵消,具体涉及基于输入数据重用个数可变的声学回音抵消方法。


背景技术:

1、20世纪60年代,widrow和hoff等人提出了自学习神经网络(adaptivelinearneuron)模型,简称adaline神经网络。自学习神经网络采用最小均方(least meansquare,简称lms)类算法进行学习,通过动态调整权值使得adaline神经网络的输出预测信号与期望样本信号两者之间的误差无限小,从而完成整个训练过程。在语音通信场景中,由于设备的扬声器和麦克风会同时处于工作状态,使得语音信号被远端的麦克风捕捉后,会通过近端扬声器播放出来,再经过直接或间接的方式被重新捕捉进近端麦克风,传回至远端扬声器中,造成通信的声学回音干扰。在这个过程中,声音从近端扬声器到麦克风之间的传播路径称为声学回音路径,这是一种声学耦合现象,其冲激响应向量一般用ψo来表示。声学回音在通信系统中普遍存在,并且会严重影响通话质量降低沟通效率。因此,采取有效措施去抑制或消除声学回音,对提高通话质量具有重要意义。

2、通过分析声学回音产生原理可知,最根本也是最直接的声学回音控制方法就是改善通信环境。例如;在市面上常见到的吸音材料墙纸,它能达到消音的目的,但此方法局限性过大,要求通信只能在特定环境中,且只能起到一定抑制作用,不能直接消除声学回音。此外,声学回音抑制器也是相对于出现较早的一种有效抑制声学回音的手段。通常,该装置被安装在通讯设备的声源处,且距离声学回音源最近效果最佳。但此方法是一个单向传输过程,而在实际场景中,通常为双端通话的情况,因此该方法对使用者有着极大的限制。

3、由于adaline神经网络技术的不断创新与发展,以及自学习算法的突飞猛进,使得自学习adaline神经网络声学回音抵消技术成为应用最广泛的声学回音抵消方法。adaline神经网络通过对声学回音路径冲激响应ψo进行预测,生成期望样本信号的预测值,根据环境的变化自动调整adaline神经网络的权值系数,使adaline神经网络输出的预测值逼近实际的期望样本信号,再将近端麦克风中接收到的全部信号抵消掉声学回音预测值,最终得到残留回音信号。随着不断的迭代,期望样本信号中的残留回音信号会逐渐减小,达到实现声学回音抵消的目的。

4、在实际中,对比相关信号而言,语音信号具有高度相关且非平稳的特性,其中信号的高度相关特性,会减慢算法的学习速度。因此在adaline神经网络中,对于处理相关信号的自学习算法是占据重要地位的。由于仿射投影算法(affine projection algorithm,简称apa)是数据重用算法中的一类优化算法,所以能够将apa称为数据重用算法。其中,与归一化最小均方(normalized least mean square,简称nlms)算法相比,数据重用算法(apa)的学习速度更快。这是因为,nlms算法仅仅只使用当前输入向量更新adaline神经网络权值,而数据重用算法使用m个最近的输入向量来更新adaline神经网络权值(m称为输入数据重用个数),这样做加快了算法在相关信号中的学习速度。然而,数据重用算法在声学回音抵消领域遭遇了新的挑战。由于,在大多数情况下,声学回音路径的冲激响应是稀疏的,并且稀疏系统会减慢算法的学习速度。为了解决数据重用算法在稀疏系统中学习速率慢的问题,成比例数据重用算法(papa)被广泛研究。成比例方法是给每个adaline神经网络权值分配不同的学习率,以至于adaline神经网络的大权值和小权值都能快速收敛,从而加快算法的整体收敛。

5、尽管papa能够有效针对稀疏系统,但算法本身仍然存在输入数据重用个数(m)是固定的问题,导致学习速度和稳态失调之间无法实现均衡。为了解决输入数据重用个数是固定的问题,s.kim等人提出了具有演化数据个数的数据重用算法(s.kim,s.kong,aidw.song,“an affine projection algorithm with evolving order,”ieee signalprocessing letters,16(11):937–940,2009.),简称e-apa。该算法拥有较快的学习速度,且实现了输入数据重用个数从高到低的演变,但是由于数据重用个数m在稳态会出现大于1的情况,导致稳态失调无法最低。此外,z.niu等人提出了数据重用算法重用数据个数的切换机制(z.niu,y.gao,j.xu,and s.ou,“switching mechanism on the order ofaffineprojection algorithm,”electronics,2022.),简称so-apa。该算法在迭代过程中能实现高、低数据重用个数和大、小学习率之间的切换,从而有着较快的学习速度和较低的稳态失调,但该算法的过渡阶段呈现出不平滑性。此外,上述e-apa和so-apa都未考虑成比例方法,导致算法在稀疏系统中不能有着较快的学习速度。本发明在输入数据重用个数可变的情况下,还加入了成比例方案,因此在稀疏系统中有着较快的学习速度,且针对声学回音抵消效果也更加的好。

6、现有中国专利文件cn201710155109.6,公开了一种组合步长成比例仿射投影声学回声消除方法,简称css-papa。其步骤如下:a、在电话扬声器处采集远端传来的声音信号x(i)和电话麦克风处采集声学回声信号d(i);b、将声音信号x(i)作为自适应滤波器的输入,其输出为声学回声信号的估计值c、声学回声抵消—将d(i)减去得到的残余回声信号e(i)作为消除声学回声后的干净信号传送给远端;d、计算自适应滤波器的残余声学回声向量;e、计算自适应滤波器的权值更新增量δw(i);f、计算组合步长m(i);g、更新自适应滤波器的权值向量w(i+1)=w(i)+m(i)δw(i);h、令i=i+1,重复a、b、c、d、e、f、g的步骤,直至通话结束。该专利具有学习速度快、同时稳态失调低的优点。

7、虽然上述现存专利同样能够解决语音声学回音抵消问题,但是与本发明相比,该现存专利仍然存在输入数据重用个数是固定的问题。输入数据的重用个数是apa算法中的一个核心参数。因为,数据的重用个数越大,算法具有较快的学习速度,但是却有着较高的稳态失调和较大的计算复杂度;相反,数据的重用个数越小,算法具有较低的稳态失调和计算复杂度,但学习速度却变得很慢。由此可见,对apa算法的输入数据重用个数做出改进对提升算法收敛性能和减小计算复杂度具有重要意义。


技术实现思路

1、本发明的目的在于提供一种基于adaline模型输入数据重用个数可变的声学回音抵消方法,该方法对于语音信号,具有学习速度快,稳态失调小,整体计算复杂度低以及声学回音抵消效果好的特点。

2、为实现上述技术目的,达到上述技术效果,本发明是通过以下技术方案实现:

3、一种基于adaline模型输入数据重用个数可变的声学回音抵消方法,该方法采用adaline神经网络模型来完成声学回音抵消,其步骤如下:

4、k1:获得i时刻的初始信号:

5、在i时刻,对远端输入的语音信号进行采样处理,获得i时刻的语音信号离散值s(i),并将s(i)作为adaline神经网络的输入样本信号;同时,对近端麦克风拾取的信号采样,得到adaline神经网络的期望样本信号h(i)即包括远端输入样本信号s(i)经过回音路径产生的回音信号。

6、k2:计算i时刻adaline神经网络的声学回音预测信号g(i):

7、收集步骤k1中s(i)从i到i-l+1时刻的离散值样本,将其组合成adaline神经网络当前i时刻的输入数据重用样本向量s(i),记为s(i)=[s(i),s(i-1)...,s(i-l+1)]t,其中,l表示adaline神经网络的长度,并且符号t表示向量的转置;

8、计算i时刻adaline神经网络的声学回音预测信号g(i),表示为g(i)=ψt(i)s(i),其中,ψ(i)=[ψ(1),ψ(2)...,ψ(l)]t是adaline神经网络抽头权值向量,起始设定为零向量;声学回音预测信号g(i)是adaline神经网络对期望样本信号h(i)中回音分量的预测值。

9、k3:实现声学回音抵消,得到i时刻的残留回音信号c(i):

10、在i时刻,将声学回音预测信号g(i)取反,再与期望样本信号h(i)叠加,从而消除期望样本信号h(i)中含有的声学回音,实现声学回音抵消,其中c(i)=h(i)-g(i)表示残留回音信号。

11、k4:改变输入数据的重用个数,计算出i时刻输入数据重用个数m(i):

12、k4.1:使用权利要求书步骤k2中,距离输入样本向量s(i)最近的i到i-m(i)+1时刻的m(i)个输入数据重用样本向量,将其构成i时刻l×m(i)阶的输入数据重用样本矩阵sm(i)(i),记为sm(i)(i)=[s(i),s(i-1),...,s(i-m(i)+1)],其中,m(i)称为i时刻输入数据重用个数,在本发明中m(i)的取值是时变的,并且对于时变m(i)的具体计算见权利要求书中步骤k4.7;

13、k4.2:使用i到i-m(i)+1时刻的期望样本信号h(i)和声学回音预测信号g(i),分别构成i时刻的期望样本信号向量h(i)和声学回音预测信号向量g(i),记为h(i)=[h(i),h(i-1),...,h(i-m(i)+1)]t和g(i)=[g(i),g(i-1),...,g(i-m(i)+1)]t;

14、k4.3:用权利要求书中所述步骤k3计算i时刻残留回音信号c(i),并结合步骤k4.2得到i时刻残留回音信号向量cm(i)(i)即cm(i)(i)=h(i)-g(i),记为cm(i)(i)=[c(i),c(i-1),...,c(i-m(i)+1)]t;

15、k4.4:在i时刻,计算用于改变输入数据重用个数的参数其表示残留回音信号c(i)排除噪声后的方差预测值;

16、

17、其中:χ∈(0.9,1)是平滑因子,·2表示欧式范数的平方,ε是非零参数,其参数的界限通常在0.0001~0.001之间,公式中和的起始设定都为零,且的起始设定为零向量;

18、k4.5:在i时刻,通过下式计算用于改变输入数据重用个数的参数其表示噪声的方差预估值;

19、

20、其中:也是平滑因子,取值范围通常在(0.9,1),和分别表示期望样本信号h(i)和声学回音预测信号g(i)的方差预估值,且和的起始设定都为零;

21、k4.6:利用权利要求书步骤k4.4中的参数和步骤k4.5中的参数计算i时刻的混合因子

22、

23、k4.7:利用权利要求书步骤k4.6中的混合因子计算i时刻adaline神经网络输入数据重用样本向量个数m(i):

24、

25、其中:round(·)表示对计算结果取整。

26、k5:计算i时刻的增益系数矩阵:

27、k5.1:对于增益系数的计算如下:

28、

29、其中:gl(i-1)表示分配给第l个adaline神经网络权值的增益系数(0≤l≤l-1),并且-1<ζ<1,参数ζ的最佳选择是-0.5,0和0.5;

30、k5.2:具有记忆型的增益系数矩阵的计算:

31、p′m(i)(i)=[g(i-1)⊙s(i),g(i-2)⊙s(i-1),…,g(i-m(i))⊙s(i-m(i)+1)]

32、其中:g(i-1)=[g0(i-1),g1(i-1),...,gl-1(i-1)]t表示成比例增益向量,并且符号⊙是哈达玛积算子,它表示两个相同长度向量之间对应元素的乘积。

33、k6:更新i时刻adaline神经网络的抽头权向量:

34、更新i时刻的adaline神经网络的抽头权向量ψ(i),adaline神经网络采用数据重用算法进行优化学习,其优化过程是通过自学习的方式调整权向量,使得声学回音预测信号g(i)和期望样本信号h(i)之间无限逼近,该adaline神经网络的抽头权向量更新为:

35、

36、其中:m为学习率,δ是一个很小的正数(它是为了避免矩阵的不可逆),并且im(i)和(·)-1分别表示m(i)×m(i)阶的单位矩阵和矩阵的求逆运算。

37、k7:令时刻i=i+1,重新执行adaline神经网络的k1到k6步骤,通过训练更多的样本,使得声学回音能够完全去除,adaline神经网络训练将贯穿整个通话过程。

38、本发明的有益效果:

39、本发明通过引入输入数据重用个数可变的概念,允许系统在迭代过程中实现数据重用个数的动态调整。这种动态的调整机制,使得算法能够在迭代中完成数据重用个数从大到小的演变,满足算法在收敛阶段和稳态阶段对数据重用个数的不同需求,从而加快学习速度,降低稳态失调并且减小计算复杂度。相对于输入数据重用个数是固定的方法,这种策略能更灵活地实现数据个数的变化,有效地提升算法的收敛性能。

40、通过引入传统增益系数矩阵,使算法能够在稀疏系统中加速收敛。然而,针对apa算法,本发明选用带有记忆型的增益系数矩阵,该矩阵能更好的适应apa算法。但是,该记忆型增益系数矩阵有着数据重用个数是固定的问题,因此,为了解决该问题,本发明提出了数据重用个数可变的记忆型增益系数矩阵。通过对增益系数矩阵的使用,结合瞬时数据重用个数的动态调整,针对声学回音路径这类稀疏系统,实现了快速的收敛和降低了计算复杂度,同时达到了较好的声学回音抵消效果。

41、现有中国专利文件cn201710155109.6中css-papa算法能够有效的针对声学回音抵消问题。但是该算法的输入数据重用个数是固定的,并且导致增益系数矩阵也是固定的,这使得其收敛性能受限。本发明提出的数据重用个数可变技术,能解决该专利的不足之处。

42、尽管本发明通过动态调整数据重用个数和计算增益系数矩阵引入了额外的一些计算步骤,但整体的计算复杂度在迭代过程中,会随着数据重用个数的减小而降低。因此,该方法在保持高效声学回音抵消效果的同时,还能保持较低的整体计算复杂度。

43、本发明的最大优点在于其优异的声学回音抵消效果。通过动态调整数据重用个数,实现较快的学习速度,较低的稳态失调以及较小的计算复杂度。在声学回音抵消场景中,该方法能够对声学回音路径实现准确的预测和有效的声学回音抵消。这意味着在实际应用中,用户可以体验到清晰、无声学回音的通话质量,即使在声学回音路径复杂或背景噪声水平变化大的情况下也是如此。

44、当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。

当前第1页1 2 
当前第1页1 2 
网友询问留言 留言:0条
  • 还没有人留言评论。精彩留言会获得点赞!
1