CN113421595B - 一种利用神经网络的语音活性检测方法 - Google Patents
一种利用神经网络的语音活性检测方法 Download PDFInfo
- Publication number
- CN113421595B CN113421595B CN202110979720.7A CN202110979720A CN113421595B CN 113421595 B CN113421595 B CN 113421595B CN 202110979720 A CN202110979720 A CN 202110979720A CN 113421595 B CN113421595 B CN 113421595B
- Authority
- CN
- China
- Prior art keywords
- voice
- array
- frame
- state
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Telephonic Communication Services (AREA)
Abstract
一种利用神经网络的语音活性检测方法,包括模型训练过程和语音活性检测过程;所述模型训练过程包括以下步骤:S1.对用于训练的纯净语音确定端点检测标签;S2.对纯净语音进行随机加噪,构造训练集;S3.逐帧处理,提取训练集中的多阶多分辨率耳蜗图特征向量;S4.构建多层门控制循环单元网络,利用训练集对其进行训练,得到多层门控制循环单元成熟模型,利用成熟模型进行语音活性检测。本发明利用神经网络良好的分类性能,提取带噪语音的特定特征,并通过预先训练好的神经网络模型,对语音以及噪声进行初步分类并求得一个语音存在概率;通过状态机对获得的语音存在概率进行后处理,从而得到一个平滑且相对准确的语音活性检测标识。
Description
技术领域
本发明属于语音识别技术领域,具体涉及一种利用神经网络的语音活性检测方法。
背景技术
在语音通话或者语音识别领域,语音活性检测技术可以有效的区分出语音片段和非语音片段,因此可以有效的降低需要处理的数据量。在识别中,只需要把语音活性段的数据进行识别;而通话领域中可以有效控制需要去传输的数据量。语音活性检测面临的最大问题就是,传统方法在非平稳噪声以及小噪声的环境下有较好的检测效果,而在大噪声以及非平稳噪声,比如音乐环境下,则无法很好的区分。
发明内容
为克服现有技术存在的技术缺陷,本发明公开了一种利用神经网络的语音活性检测方法。
本发明所述利用神经网络的语音活性检测方法,包括模型训练过程和语音活性检测过程;
所述模型训练过程包括以下步骤:
S1.对用于训练的纯净语音确定端点检测标签;
S2.对纯净语音进行随机加噪,构造训练集;
S3.逐帧处理,提取训练集中每一帧语音的多阶多分辨率耳蜗图特征向量;
S4.构建多层门控制循环单元网络,利用训练集对其进行训练,得到多层门控制循环单元成熟模型;
语音活性检测过程:
S5.提取测试语音每一帧的多阶多分辨率耳蜗图特征向量;
S6.经过神经网络的前向网络,对每一帧给出一个语音存在概率;
S7.利用状态机对语音存在概率值进行后处理,输出一个平滑且稳定的语音活性检测标识;
所述后处理为将离散的语音存在概率值归整为仅采用0和1表示;
步骤S7中,利用状态机对语音存在概率值进行后处理的具体方法为:
设置状态机状态0为初始态,1为确定态,2为退出态;
设置启动数组、结束数组,设置存在门限值;
在状态机状态为确定态下时,
当语音存在概率>存在门限值时,启动数组对应元素的值置为1,同时对启动数组元素序号加1;直到元素序号超过启动数组长度后重置;
当语音存在概率<存在门限值时, 结束数组对应元素的值置为1,同时对结束数组元素序号加1;直到元素序号超过结束数组长度后重置。
优选的,所述步骤 S1具体为:
设置一功率谱计数器, 定义该功率谱计数器当前值为fct,fct初始值为0,设置依次减小的第一经验值TH1、第二经验值TH2、第三经验值TH3;其中第一经验值为语音帧功率谱的上限经验值、第二经验值为语音帧功率谱的中间经验值、第三经验值为语音帧功率谱的下限经验值;
对纯净语音逐帧检测功率谱,当前帧的功率谱PSC>第一经验值TH1时,fct为0,当TH2≤PSC≤TH1时,fct减5;当TH3≤PSC<TH2时,fct加1;其余情况加2;
最终对fct进行统计,若fct≥ 8 ,则当前帧端点检测标签标注为1;否则为0。
步骤S3中多阶多分辨率耳蜗图特征向量提取过程包括步骤S31-S34:
S31.将训练集中的带噪语音通过一个N通道滤波器组变换到频域,获取N个信号子带;
S32.按照两种不同帧长,提取N个信号子带的对数功率谱值,分别得到N维的第一功率谱向量coch1和第二功率谱向量coch2;
S33.对第一功率谱向量coch1和第二功率谱向量coch2各自按照不同大小的矩形窗进行平均处理,得到N维的第三功率谱向量coch3和第四功率谱向量coch4;
通过步骤S31-S33,每一帧可以得到N*4的多分辨率耳蜗图特征向量,包括四个功率谱向量coch1、coch2、coch3、coch4;
S34.计算所述多分辨率耳蜗图特征向量的一阶差分特征向量和二阶差分特征向量,与多分辨率耳蜗图特征向量合并后得到多阶多分辨率耳蜗图特征向量。
优选的,所述S34 步骤中一阶差分特征向量计算方法如下:
y(m)=b(1)*x(m)+z1(m-1)
z1(m)=b(1)*x(m)+z2(m-1)-a(2)*y(m)
…
zn-2(m)=b(n-1)*x(m)+zn-1(m-1)-a(n-1)*y(m)
zn-1(m)=b(n)*x(m)-a(n)*y(m) -----(1)
其中x(m)为多阶MRCG特征向量,
b(1),b(2)…b(n)是分子的系数向量,
y(m)为一阶差分特征向量,
a(2)…a(n)是分母的系数向量,
z1(m) …zn-1(m)为中间变量;
初始化zn-1(0)为0,a(2)…a(n)均为1;
二阶差分特征向量计算是在得到一阶差分特征向量的基础上,采用公式组(1)计算一阶差分特征向量y(m)的差分特征向量y′(m);
二阶差分特征向量计算时,分子系数向量为b′(1),b′(2)…b′(n),分母系数向量a′(1),a′(2)…a′(n)依然为1。
优选的,步骤S4中多层门控制循环单元网络包括至少3个门控制循环单元模块,将当前帧、当前帧之前帧、当前帧之后帧的多阶多分辨率耳蜗图特征向量分别输入各个门控制循环单元模块中进行训练。
优选的,所述S7步骤中.利用状态机对语音存在概率值进行后处理的具体方法为:
设置状态机状态0为初始态,1为确定态,2为退出态;
设置启动数组、结束数组,设置存在门限值;
在状态机状态为确定态下时,
当语音存在概率>存在门限值时,启动数组对应元素的值置为1,同时对启动数组元素序号加1;直到元素序号超过启动数组长度后重置;
当语音存在概率<存在门限值时, 结束数组对应元素的值置为1,同时对结束数组元素序号加1;直到元素序号超过结束数组长度后重置。
优选的,所述S7步骤中还包括以下步骤:
设置启动数组计数器和结束数组计数器,
启动数组计数器对启动数组中的连续取值为1次数进行计数,
结束数组计数器对结束数组中所有的1进行计数,并设置一个提前结束门限值,在结束数组计数器计数超过所述提前结束门限值时,结束运算;
设置最小开始门限值、最大结束门限值、超时门限值、语音计数器;
当状态机状态为0时,如果启动数组计数器> 最小开始门限值,将状态机状态置为1,并把结束数组置为0;
启动数组计数器 <最小开始门限值,则维持状态机状态0,。
当状态机状态为1时,语音计数器加1,如果语音计数器>超时门限值,或者结束数组计数器>最大结束门限值,强制结束并把状态机状态置为2;否则维持状态机状态为1;
状态机状态置为2后,将启动数组和结束数组内全部元素清零,启动数组和结束数组的元素序号均置为1,再将状态机状态置为0。
本发明利用神经网络良好的分类性能,提取带噪语音的特定特征,并通过预先训练好的神经网络模型,对语音以及噪声进行一个初步的分类并求得一个语音存在概率。通过状态机对获得的语音存在概率进行后处理,从而得到一个平滑且相对准确的语音活性检测标识。
附图说明
图1为本发明所述检测方法的一个具体流程示意图;
图2为本发明所述Multi-GRU网络的一个具体实施方式示意图;
图2中RELU和Softmax表示不同的函数名。
具体实施方式
下面对本发明的具体实施方式作进一步的详细说明。
本发明所述本发明所述利用神经网络的语音活性检测方法,将神经网络结合传统方法实现非稳态噪声、稳态噪声和人声区分的语音活性检测,具体包括以下步骤:
模型训练过程
S1.对用于训练的纯净语音确定VAD标签;
S2.对纯净语音进行随机加噪,构造训练集;
S3.逐帧处理,提取训练集中每一帧语音的多阶MRCG(多分辨率耳蜗图,Multi-Resolution CochleaGram)特征向量。
S4.构建Multi-GRU(多层门控制循环单元)网络,利用训练集对其进行训练,得到Multi-GRU成熟模型;
语音活性检测过程:
S5.提取测试语音每一帧的多阶MRCG特征向量;
S6.经过神经网络的前向网络,对每一帧给出一个语音存在概率;
S7.利用状态机对语音存在概率值进行后处理,输出一个平滑且稳定的语音活性检测标识。
实施方式中的具体的的流程如下:
S1.对训练集中的纯净语音进行标注,将语音帧VAD(端点检测)标签标注为1,将静音帧VAD标签标注为0。
由于是纯净语音,使用现有技术下基于能量的语音活性检测和标记方法就可以起到比较准确且高效的标注作用。
以下是步骤S1中利用语音能量的快速语音活性标注方法流程介绍。可以按照图1所示方式进行:
所述步骤 S1具体为:
设置一功率谱计数器, 定义功率谱计数器当前值为fct,其初始值为0,设置依次减小的第一经验值TH1、第二经验值TH2、第三经验值TH3;其中第一经验值为语音帧功率谱的上限经验值、第二经验值为语音帧功率谱的中间经验值、第三经验值为语音帧功率谱的下限经验值;
对纯净语音逐帧检测功率谱,当前帧的功率谱PSC>第一经验值TH1时,fct为0,当TH2≤PSC≤TH1时,fct减5;当TH3≤PSC<TH2时,fct加1;其余情况加2;
最终对fct进行统计,若fct≥ 8 ,则该帧端点检测标签标注为1;否则为0。
第一经验值表示识别为语音的下限,高于第一经验值,可以断定为语音,而在第一经验值TH1和第二经验值TH2之间,根据经验表明语音可能性较大,因此设置减5,而在第二经验值TH2和第三经验值TH3之间 ,语音可能性低 ,其余情况下 ,表示几乎不可能是语音。为避免VAD标签中间的1由于干扰而出现不连续,一旦判定为语音,则尽可能让状态保持在语音,而不因个别帧干扰退出语音状态 ,因此设置单次减值较多,而加值较少;除非出现连续多帧低于最小门限TH3。
一个设置方式为TH1设置为109,TH2设置为108,TH3设置为107。
每帧对当前的fct值进行统计,若fct≥ 8 ,则该帧VAD标签标注为0;否则为1。
S2.对纯净语音进行随机加噪,构造训练集;
可进行随机信噪比和常见场景噪声的加噪。
S3.对训练集逐帧处理,提取训练集中每一帧语音的多阶MRCG特征向量;
一个具体的特征提取方法如下:
S31.首先将训练集中的带噪语音通过一个64通道gammatone滤波器组变换到频域,获取64个信号子带;
S32.按照40ms一帧,帧移10ms提取64个子带的对数功率谱值得到64维的第一功率谱向量coch1,
按照200ms一帧,帧移10ms 提取64个子带的对数功率谱值得到64维的第二功率谱向量coch2。
S33.对第一功率谱向量coch1按照5*5矩形窗进行平均处理,得到64维的第三功率谱向量coch3。
5*5矩形窗表示有5帧时间长度,且同一帧临近的5个频带组成的矩形窗。
对第二功率谱向量coch2按照20*20的矩形窗进行平均处理,得到64维的第四功率谱向量coch4。
通过以上运算,每一帧可以得到64*4的MRCG特征向量,包括四个功率谱向量coch1、coch2、coch3、coch4。
S34.再计算MRCG特征向量的一阶差分特征向量和二阶差分特征向量,与MRCG特征向量合并后得到64*4*3=768维的多阶MRCG特征向量。
其中一阶差分特征向量计算方法如下:
y(m)=b(1)*x(m)+z1(m-1)
z1(m)=b(1)*x(m)+z2(m-1)-a(2)*y(m)
…
zn-2(m)=b(n-1)*x(m)+zn-1(m-1)-a(n-1)*y(m)
zn-1(m)=b(n)*x(m)-a(n)*y(m) ----(1)
其中x(m)为多阶MRCG特征向量,m=1,2…768,
b(1),b(2)…b(n)是分子的系数向量,
y(m)为计算的一阶差分特征向量,
a(1),a(2)…a(n)是分母的系数向量。
初始化x(0),y(0), zn-1(0)为0,a(1),a(2)…a(n)均为1。
二阶差分特征向量计算是在得到一阶差分特征向量的基础上,利用公式组(1)计算一阶差分特征向量y(m)的差分特征向量y′(m);
二阶差分特征向量计算时,分子系数向量为b′(1),b′(2)…b′(n),分母系数向量a′(1),a′(2)…a′(n)依然为1。
S4.搭建初始Multi-GRU神经网络,将提取的多阶MRCG特征向量作为神经网络输入,步骤S1中获取的VAD标签作为训练目标,训练得到Multi-GRU成熟模型。
一个具体的Multi-GRU网络应用如图2所示如下:
将不同帧的多阶MRCG特征向量Xi-3、Xi、Xi+3分别输入至3个H维度的GRU模块中,得到3个维度均为H的输出量h1、h2、h3;将其分别通过M维的全连接层(Fully Connectedlayers,FC),其维度变为M;再经过ReLu函数的激活层处理后进行拼接,得到3M维的数据;将数据传入至下一个2维全连接层,输出维度为2的数据;最后通过一个Softmax函数激活层计算得到期望目标,即网络模型的输出。
其中,输入的Xi表示当前语音帧的多阶MRCG特征向量,Xi-3表示当前语音帧之前的第三帧语音信号的多阶MRCG特征向量,Xi+3表示当前语音帧之后的第三帧语音信号的多阶MRCG特征向量。如果帧数超出给定的帧,则用0补充。虽然Multi-GRU网络传入一帧数据也可进行计算,但是增加2帧即前面的第三帧多阶MRCG特征向量Xi-3和后面的第三帧多阶MRCG特征向量Xi+3,可以让网络获取音频的前后信息,更有利于做出当前帧是否为语音的判断。
语音活性检测过程如下:
S5.提取待检测语音的多阶MRCG特征向量,可按照步骤S3的方式进行。
S6.待检测语音的多阶MRCG特征向量输入Multi-GRU成熟模型,输出每一帧的语音存在概率pred(l),l表示帧数。
S7.对S6中输出的语音存在概率pred(l)做后处理。
后处理目的是使数据大小分散在0到1之间的语音存在概率变成一个稳定连续的只有0和1的标签,从而简化语音应用场景中的运算,降低数据处理量。采用连续标签也可以将实际语音中常见的短暂停顿以若干0标签表示,避免停顿造成数据标签的中断。
如果没有后处理,那中间的停顿可能会被标签为0,一段话变成两段话,不符合实际需求。
由网络输出的每一帧语音存在概率是0~1之间的离散值,通过和门限值比较的处理,可以将离散值转变为仅有0,1两种取值。
可采用设置数组和门限值的方式,对后处理以状态机形式进行,一个具体实施方式如下:
先设置启动数组start_buf和结束数组end_buf,设置存在门限值threshold为0.5。start_buf和end_buf主要目的是记录连续帧中语音存在概率pred(l)和门限大小的比较情况。start_buf长度可设置为30,end_buf长度可设置为70,start_buf和end_buf的数组元素序号分别用start_idx和end_idx表示,初始值都为1。
即start_buf(start_idx)为start_buf数组中第start_idx个元素;
end_buf(end_idx) 为end_buf数组中第end_idx个元素;
start_idx =end_idx=1时,初始值start_buf(1)和end_buf(1)均为1。
end_buf的长度比start_buf长是为了语音在结束的时候可以更慢的结束,以减少对能量较弱的语音误判。
当pred(l)>threshold时,start_buf(start_idx)的值置为1,同时对start_idx加1;当pred(l)<threshold时,end_buf(end_idx)的值为1,同时对end_idx加1。当start_idx超过30或end_idx超过70的时候,分别将start_idx或end_idx重置为1,表示重新开始统计。
如有10帧网络输出的 “语音存在概率”分别为0.1,0.3,0.41, 0.45, 0.44, 0.8,0.9, 0.2, 0.4, 0.1;
threshold值为 0.5那经过运算处理后;
startbuf中对应这10帧的值就为0 0 1 1 1 1 1 0 1 0
endbuf中对应这10帧的值就为1 1 0 0 0 0 0 1 0 1。
通过上述处理方式,将0~1之间的离散值语音存在概率转化为仅有0,1两种取值。
为了减少对能量较弱的语音误判,提高抗误检测的能力及延缓结束;可以设置启动数组计数器start_count和结束数组计数器end_count,计数器start_count对启动数组start_buf中的连续取值为1次数进行计数,end_count计数器对结束数组end_buf中所有的1进行计数。这样设置的目的是:start_count通过计算连续的1来提高抗误检测的能力,end_buf通过计算所有的1来延缓结束时间。
例如:
数组start_buf:0 1 0 0 0 0 1 1 1 1 1 0,有5个连续1出现;
则start_count为5;
而start_buf中出现的第2个 1很可能是误判值,通过计算连续的1,结合后面的运算,可以将这个误判值忽略,提高抗误检测的能力;
数组end_buf :1 1 1 0 0 0 1 1 1 1 0 1 1 1 ,共有10个1,
end_count=10。
其中可能语音间隙段为0,通过计算所有的1,并设置一个提前结束门限值,在end_count计数器计数超过所述提前结束门限值时,结束运算,可以避免提前结束。
然后用状态机来输出最终语音活性检测标签,具体实施方法如下:
状态机是语音活性检测中常用的一种方式,可以根据需求定制状态以及对应状态中的行为,设置状态机好处主要是,可以在不同的状态 使用不同的状态所对应的判断条件。
假设状态机状态用vad_state表示,0为初始态,1为确定态表示确定语音段,2为退出态。
设置最小开始门限值VAD_START_MIN_FRMS=8,设置最大结束门限值VAD_END_MAX_FRMS=20;设置超时门限值1VAD_EXPIRE_FRMS=400。
设置一个语音计数器vad_on_frames,其目的是记录语音活性检测标志连续为1的次数,初始值为0;运算从初始态0开始。
当vad_state为0时,如果start_count > VAD_START_MIN_FRMS,表示满足语音段start的标准,vad_state置为1.vad_on_frames初始化为0,并把end_buf置为0。start_count < VAD_START_MIN_FRMS,则维持vad_state=0,表示不符合进入语音段的标准。
状态0为初始态,可以理解成准备阶段;本方法中,初始状态为0,该状态主要就是去做start_count 与最小开始门限值VAD_START_MIN_FRMS的比较。
当vad_state为1时,vad_on_frames计数器加1,如果vad_on_frames> VAD_EXPIRE_FRMS ,表示一段语音已经超时,则强制结束并把vad_state置为2;或者end_count> VAD_END_MAX_FRMS,表示结束计数器已经大于一个门限,vad_state置为2。否则维持vad_state=1。
状态1为确定态,即满足状态0后切入状态1,也就是确定是语音段.状态1下根据文中描述的在满足条件时去结束。
当vad_state为2时,将vad_state置为0,将start_buf和end_buf全部清零,start_idx和end_idx置为1。表示整个状态机重新开始运算。
状态2为退出态,退出态下状态机可重置状态和清零各类寄存器。
上述过程处理可以提高语音活性检测的稳定性,把离散且不连续的0-1的数变为稳定连续的0,1值,使得最终输出连续。
前文所述的为本发明的各个优选实施例,各个优选实施例中的优选实施方式如果不是明显自相矛盾或以某一优选实施方式为前提,各个优选实施方式都可以任意叠加组合使用,所述实施例以及实施例中的具体参数仅是为了清楚表述发明人的发明验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (5)
1.一种利用神经网络的语音活性检测方法,其特征在于,包括模型训练过程和语音活性检测过程;
所述模型训练过程包括以下步骤:
S1.对用于训练的纯净语音确定端点检测标签;
S2.对纯净语音进行随机加噪,构造训练集;
S3.逐帧处理,提取训练集中每一帧语音的多阶多分辨率耳蜗图特征向量;
S4.构建多层门控制循环单元网络,利用训练集对其进行训练,得到多层门控制循环单元成熟模型;
语音活性检测过程:
S5.提取测试语音每一帧的多阶多分辨率耳蜗图特征向量;
S6.经过神经网络的前向网络,对每一帧给出一个语音存在概率;
S7.利用状态机对语音存在概率值进行后处理,输出一个平滑且稳定的语音活性检测标识;
所述后处理为将离散的语音存在概率值归整为仅采用0和1表示;
步骤S7中,利用状态机对语音存在概率值进行后处理的具体方法为:
设置状态机状态0为初始态,1为确定态,2为退出态;
设置启动数组、结束数组,设置存在门限值;
在状态机状态为确定态下时,
当语音存在概率>存在门限值时,启动数组对应元素的值置为1,同时对启动数组元素序号加1;直到元素序号超过启动数组长度后重置;
当语音存在概率<存在门限值时, 结束数组对应元素的值置为1,同时对结束数组元素序号加1;直到元素序号超过结束数组长度后重置。
2.如权利要求1所述语音活性检测方法,其特征在于,步骤 S1具体为:
设置一功率谱计数器, 定义该功率谱计数器当前值为fct,fct初始值为0,设置依次减小的第一经验值TH1、第二经验值TH2、第三经验值TH3;其中第一经验值为语音帧功率谱的上限经验值、第二经验值为语音帧功率谱的中间经验值、第三经验值为语音帧功率谱的下限经验值;
对纯净语音逐帧检测功率谱,当前帧的功率谱PSC>第一经验值TH1时,fct为0,当TH2≤PSC≤TH1时,fct减5;当TH3≤PSC<TH2时,fct加1;其余情况加2;
最终对fct进行统计,若fct≥ 8 ,则当前帧端点检测标签标注为1;否则为0。
3.如权利要求1所述语音活性检测方法,其特征在于,步骤S3中多阶多分辨率耳蜗图特征向量提取过程包括步骤S31-S34:
S31.将训练集中的带噪语音通过一个N通道滤波器组变换到频域,获取N个信号子带;
S32.按照两种不同帧长,提取N个信号子带的对数功率谱值,分别得到N维的第一功率谱向量coch1和第二功率谱向量coch2;
S33.对第一功率谱向量coch1和第二功率谱向量coch2各自按照不同大小的矩形窗进行平均处理,得到N维的第三功率谱向量coch3和第四功率谱向量coch4;
通过步骤S31-S33,每一帧可以得到N*4的多分辨率耳蜗图特征向量,包括四个功率谱向量coch1、coch2、coch3、coch4;
S34.计算所述多分辨率耳蜗图特征向量的一阶差分特征向量和二阶差分特征向量,与多分辨率耳蜗图特征向量合并后得到多阶多分辨率耳蜗图特征向量。
4.如权利要求1所述语音活性检测方法,其特征在于,步骤S4中多层门控制循环单元网络包括至少3个门控制循环单元模块,将当前帧、当前帧之前帧、当前帧之后帧的多阶多分辨率耳蜗图特征向量分别输入各个门控制循环单元模块中进行训练。
5.如权利要求1所述语音活性检测方法,其特征在于, 步骤S7中还包括以下步骤:
设置启动数组计数器和结束数组计数器,
启动数组计数器对启动数组中的连续取值为1次数进行计数,
结束数组计数器对结束数组中所有的1进行计数,并设置一个提前结束门限值,在结束数组计数器计数超过所述提前结束门限值时,结束运算;
设置最小开始门限值、最大结束门限值、超时门限值、语音计数器;
当状态机状态为0时,如果启动数组计数器> 最小开始门限值,将状态机状态置为1,并把结束数组置为0;
启动数组计数器 <最小开始门限值,则维持状态机状态0;
当状态机状态为1时,语音计数器加1,如果语音计数器>超时门限值,或者结束数组计数器>最大结束门限值,强制结束并把状态机状态置为2;否则维持状态机状态为1;
状态机状态置为2后,将启动数组和结束数组内全部元素清零,启动数组和结束数组的元素序号均置为1,再将状态机状态置为0。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110979720.7A CN113421595B (zh) | 2021-08-25 | 2021-08-25 | 一种利用神经网络的语音活性检测方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110979720.7A CN113421595B (zh) | 2021-08-25 | 2021-08-25 | 一种利用神经网络的语音活性检测方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN113421595A CN113421595A (zh) | 2021-09-21 |
| CN113421595B true CN113421595B (zh) | 2021-11-09 |
Family
ID=77719901
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202110979720.7A Active CN113421595B (zh) | 2021-08-25 | 2021-08-25 | 一种利用神经网络的语音活性检测方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN113421595B (zh) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114141234B (zh) * | 2021-10-18 | 2025-09-30 | 浙江大搜车软件技术有限公司 | 一种基于帧分类的语音端点检测方法及装置 |
| CN115273915B (zh) * | 2022-07-29 | 2025-01-21 | 歌尔科技有限公司 | 语音激活检测方法、装置、终端设备以及计算机存储介质 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1567433A (zh) * | 1999-11-15 | 2005-01-19 | 诺基亚有限公司 | 噪声抑制 |
| CN106603454A (zh) * | 2016-11-23 | 2017-04-26 | 深圳市国电科技通信有限公司 | 一种gfsk数字双通道解调方法 |
| CN107708048A (zh) * | 2017-09-05 | 2018-02-16 | 腾讯科技(深圳)有限公司 | 啸叫检测方法和装置、存储介质及电子装置 |
| CN108877778A (zh) * | 2018-06-13 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法及设备 |
| CN110827858A (zh) * | 2019-11-26 | 2020-02-21 | 苏州思必驰信息科技有限公司 | 语音端点检测方法及系统 |
| CN111816218A (zh) * | 2020-07-31 | 2020-10-23 | 平安科技(深圳)有限公司 | 语音端点检测方法、装置、设备及存储介质 |
| CN111933169A (zh) * | 2020-08-20 | 2020-11-13 | 成都启英泰伦科技有限公司 | 一种二次利用语音存在概率的语音降噪方法 |
| CN112735482A (zh) * | 2020-12-04 | 2021-04-30 | 珠海亿智电子科技有限公司 | 基于联合深度神经网络的端点检测方法及系统 |
| CN113205823A (zh) * | 2021-04-12 | 2021-08-03 | 广东技术师范大学 | 一种肺音信号端点检测方法、系统及存储介质 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8838445B1 (en) * | 2011-10-10 | 2014-09-16 | The Boeing Company | Method of removing contamination in acoustic noise measurements |
| EP3300078B1 (en) * | 2016-09-26 | 2020-12-30 | Oticon A/s | A voice activitity detection unit and a hearing device comprising a voice activity detection unit |
| US11361756B2 (en) * | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
| CN112435691B (zh) * | 2020-10-12 | 2024-03-12 | 珠海亿智电子科技有限公司 | 在线语音端点检测后处理方法、装置、设备及存储介质 |
-
2021
- 2021-08-25 CN CN202110979720.7A patent/CN113421595B/zh active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1567433A (zh) * | 1999-11-15 | 2005-01-19 | 诺基亚有限公司 | 噪声抑制 |
| CN106603454A (zh) * | 2016-11-23 | 2017-04-26 | 深圳市国电科技通信有限公司 | 一种gfsk数字双通道解调方法 |
| CN107708048A (zh) * | 2017-09-05 | 2018-02-16 | 腾讯科技(深圳)有限公司 | 啸叫检测方法和装置、存储介质及电子装置 |
| CN108877778A (zh) * | 2018-06-13 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 语音端点检测方法及设备 |
| CN110827858A (zh) * | 2019-11-26 | 2020-02-21 | 苏州思必驰信息科技有限公司 | 语音端点检测方法及系统 |
| CN111816218A (zh) * | 2020-07-31 | 2020-10-23 | 平安科技(深圳)有限公司 | 语音端点检测方法、装置、设备及存储介质 |
| CN111933169A (zh) * | 2020-08-20 | 2020-11-13 | 成都启英泰伦科技有限公司 | 一种二次利用语音存在概率的语音降噪方法 |
| CN112735482A (zh) * | 2020-12-04 | 2021-04-30 | 珠海亿智电子科技有限公司 | 基于联合深度神经网络的端点检测方法及系统 |
| CN113205823A (zh) * | 2021-04-12 | 2021-08-03 | 广东技术师范大学 | 一种肺音信号端点检测方法、系统及存储介质 |
Non-Patent Citations (3)
| Title |
|---|
| "Boosted Deep Neural Networks and Multi-resolution Cochleagram Features for Voice Activity Detection";Xiaolei Zhang;《INTERSPEECH 2014》;20141231;正文第1-4页,附图1 * |
| "噪声环境下的语音激活检测算法研究";陈丁当;《中国优秀硕士学位学位论文全文数据库信息科技辑》;20170315;全文 * |
| Xiaolei Zhang."Boosted Deep Neural Networks and Multi-resolution Cochleagram Features for Voice Activity Detection".《INTERSPEECH 2014》.2014, * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN113421595A (zh) | 2021-09-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110364143B (zh) | 语音唤醒方法、装置及其智能电子设备 | |
| CN113421595B (zh) | 一种利用神经网络的语音活性检测方法 | |
| EP2486562B1 (en) | Method for the detection of speech segments | |
| CN110767223B (zh) | 一种单声道鲁棒性的语音关键词实时检测方法 | |
| CN111916061B (zh) | 语音端点检测方法、装置、可读存储介质及电子设备 | |
| CN111192590B (zh) | 语音唤醒方法、装置、设备及存储介质 | |
| CN109599117A (zh) | 一种音频数据识别方法及人声语音防重放识别系统 | |
| US12437775B2 (en) | Speech processing method, computer storage medium, and electronic device | |
| CN111540342B (zh) | 一种能量阈值调整方法、装置、设备及介质 | |
| CN110970016A (zh) | 一种唤醒模型生成方法、智能终端唤醒方法及装置 | |
| CN110364142A (zh) | 语音音素识别方法和装置、存储介质及电子装置 | |
| EP3739582B1 (en) | Voice detection | |
| CN109036471B (zh) | 语音端点检测方法及设备 | |
| CN112259117A (zh) | 一种目标声源锁定和提取的方法 | |
| CN114093377A (zh) | 分裂归一化方法、装置、音频特征提取器、芯片 | |
| CN111128174A (zh) | 一种语音信息的处理方法、装置、设备及介质 | |
| CN114822578A (zh) | 语音降噪方法、装置、设备及存储介质 | |
| CN113470691A (zh) | 一种语音信号的自动增益控制方法及其相关装置 | |
| US11335332B2 (en) | Trigger to keyword spotting system (KWS) | |
| US20230317102A1 (en) | Sound Event Detection | |
| CN112992189B (zh) | 语音音频的检测方法及装置、存储介质及电子装置 | |
| Yechuri et al. | A u-net with gated recurrent unit and efficient channel attention mechanism for real-time speech enhancement | |
| CN115132197B (zh) | 数据处理方法、装置、电子设备、程序产品及介质 | |
| CN117456987A (zh) | 一种语音识别方法及系统 | |
| CN114566152B (zh) | 一种基于深度学习的语音端点检测方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |