1.本技术涉及身份认证及识别技术领域,具体涉及一种基于深度学习的声纹识别身份认证系统。
背景技术:
2.声纹识别和指纹,虹膜,人脸识别等一样,属于生物识别的一种,被认为是最自然的生物特征识别身份鉴定方式。声纹识别具有采集设备简单,系统价格低廉,容易被人们接受等优点。门禁系统、保险柜、个人设备(汽车、电脑、手机、pda等)使用权限控制等使用场合,可以通过
用户语音生物特征和语音内容双方面进行验证,同时短语音即可实现学习和测试过程,具有突出的应用优势。
3.声纹识别的基本过程为语音采集,特征提取,分类模型。常见的语音特征提取方法是利用语音的短时平稳特性,采用梅尔倒谱变换(mfcc)方法将语音转换为语音特征点集,之后经过学习过程对用户语音进行建模得到用户的分类模型。隐马尔可夫模型(hlnm)是目前公认的在文本相关的声纹识别中效果最好的建模方法。hnm一方面用隐含的状态对应于声学层相对稳定的发音单位,并通过状态转移和状态驻留来描述发音的变化;另一方面它引入了概率统计模型,用概率密度函数计算语音参数对hmm模型的输出概率,通过搜索最佳状态序列,以最大后验概率为准则到识别结果。
技术实现要素:
4.本技术公开了一种基于深度学习的声纹识别身份认证系统,通过对声音进行建模降噪构建用户基本信息库,并基于信息库判断说话人是否为用户本人。
5.为实现上述目的,本技术提供了以下方案:
6.一种基于深度学习的声纹识别身份认证系统,包括:交互
模块、信息处理模块、储存模块和对比模块;
7.
所述交互模块与所述信息处理模块连接,所述交互模块用于采集用户各项信息,所述用户各项信息包括用户个人信息和用户声纹信息;
8.所述信息处理模块还与所述储存模块连接,所述信息处理模块用于对所述用户各项信息进行处理,得到噪音特征、用户
标签和声纹标签;
9.所述储存模块还与所述对比模块连接,所述储存模块用于构建用户基本信息库;
10.所述对比模块还与所述信息处理模块和所述交互模块连接,所述对比模块用于基于所述用户基本信息库进行标签比对。
11.优选的,所述交互模块包括:交互界面、个人信息采集单元和声音信息采集装置;
12.所述交互界面分别与所述个人信息采集单元和所述声音信息采集装置连接,所述交互界面用于向用户提供交互选项;
13.所述个人信息采集单元还分别与所述声音信息采集装置和所述信息处理模块连接,所述个人信息采集单元用于采集所述用户个人信息;
14.所述声音采集装置还与所述信息处理模块连接,所述声音采集装置用于采集所述用户声纹信息。
15.优选的,所述交互界面为触控显示屏。
16.优选的,所述用户个人信息包括:姓名、性别和职业。
17.优选的,所述信息处理模块包括预处理装置和中央处理器;
18.所述预处理装置分别与所述交互模块和所述中央处理器连接,所述预处理装置用于对所述用户声纹信息进行预加重处理,并对处理后的信息进行汉明窗口函数加权,提取噪音,得到所述噪音特征;
19.所述预处理装置还用于对所述用户声纹信息进行降噪处理,得到降噪数据;
20.所述中央处理器还分别与所述个人信息采集单元和所述储存模块连接,所述中央处理器用于对所述降噪数据进行gmm-ubm自适应训练并建模,提取模型的声音特征值;
21.所述中央处理器还用于对所述个人信息设定标签得到所述用户标签,对所述声音特征值设定标签得到所述声音标签。
22.优选的,所述储存模块包括用户基本信息库;
23.所述用户基本信息库与所述信息处理模块连接,所述用户基本信息库用于基于所述噪音特征、所述用户标签和所述声音标签构建并储存用户声音特征标签集。
24.优选的,其特征在于,所述用户基本信息库构建方法包括:
25.s1.采集用户个人信息并设定用户标签;
26.s2.采集用户声纹信息并进行预加重处理,并对处理后的信息进行汉明窗口函数加权,提取噪音,得到噪音特征;
27.s3.对所述用户声纹信息进行降噪处理得到降噪数据,对所述降噪数据进行gmm-ubm建模并提取特征值,基于所述特征值设定标签,得到声音标签;
28.s4.基于所述噪音特征、所述用户标签和所述声音标签建立用户声音特征标签集,并根据所述用户声音特征标签集建立用户基本信息库。
29.优选的,所述对比模块包括微处理器;
30.所述微处理器分别与所述交互模块、所述信息处理模块和所述储存模块连接,所述微处理器用于基于所述储存模块内的用户特征标签集与用户声纹信息进行对比。
31.优选的,所述微处理器还用于基于噪音特征判断声音信息是否由机器发出。
32.本技术的有益效果为:
33.本技术基于经过降噪处理后的声纹信息建立深度学习模型对声纹进行处理,并建立用户基本信息库,能够高效、快速、准确的判断出该声音是否是本人,并且还能识别检测声音是人声还是机器声,从而提高了系统的抗干扰能力,使得声纹识别在应用场景中具有更高的准确率与效率,具有广阔的应用前景。
附图说明
34.图1为本技术基于深度学习的声纹识别身份认证系统结构示意图。
具体实施方式
35.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完
整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
36.为使本技术的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本技术作进一步详细的说明。
37.实施例一
38.在本实施例一中,如图1所示,一种基于深度学习的声纹识别身份认证系统,包括:交互模块、信息处理模块、储存模块和对比模块;
39.交互模块包括:交互界面、个人信息采集单元和声音信息采集装置;交互界面可选用触控显示屏,用于向用户提供交互选项;个人信息采集单元用于采集用户个人信息,用户个人信息可通过触控显示屏进行输入,包括但不限于:姓名、性别、职业等基本个人信息;声音采集装置可选用数字拾音器,用于采集用户声纹信息并转换为可建模的数字信号。
40.信息处理模块包括:预处理装置和中央处理器;预处理装置可选用高通滤波器,用于采集用户声纹信息并对高频分量进行提升,使信号的高频频谱与低频频谱之间的变化平坦,提高语音信号的高频分量的分辨率,再对处理后的信息进行汉明窗口函数加权,提取噪音得到噪音特征,对用户声纹信息进行降噪处理,得到降噪数据;中央处理器用于对所述降噪数据进行gmm-ubm建模并提取模型的声音特征值,对个人信息设定标签得到用户标签,对声音特征值设定标签得到声音标签。
41.储存模块包括用户基本信息库;用户基本信息库用于基于噪音特征、用户标签和声音标签构建并储存用户声音特征标签集,用户基本信息库的建立方法为:采集用户个人信息并设定用户标签;采集用户声纹信息并进行预加重处理,并对处理后的信息进行汉明窗口函数加权,提取噪音,得到噪音特征;对用户声纹信息进行降噪处理得到降噪数据,对降噪数据进行gmm-ubm自适应训练并建模,提取模型特征值,基于特征值设定标签,得到声音标签;基于噪音特征、用户标签和声音标签建立用户声音特征标签集,并根据用户声音特征标签集建立用户基本信息库。
42.对比模块包括微处理器;微处理器可选用单片机,用于基于储存模块内的用户特征标签集与用户声纹信息进行对比,还用于基于噪音特征判断声音信息是否由机器发出。
43.在本实施例一中,得到声音标签包括以下步骤:将带噪语音进行加窗分帧后得到分帧数据,其中相邻两帧之间有重叠部分;对分帧数据进行快速傅里叶变换,分别求出幅度谱、相位谱以及功率谱;计算噪声平均功率谱和噪声平均幅值谱;求出有话帧和无话帧;针对无话帧修改噪声平均功率和噪声平均幅值谱,有话帧计算后延信噪比和先验信噪比,并求出维纳滤波传递函数;计算维纳滤波函数的输出;将幅值谱和相位谱进行傅里叶逆变换,得到还原成时域的降噪数据;对降噪数据进行gmm-ubm自适应训练,得到gmm模型,并提取模型特征值,基于特征值设定声音标签。
44.实施例二
45.在本实施例二中,某用户通过触控显示屏输入自己的基本个人信息,姓名:xxx、性别:女、职业:教师,个人信息采集单元对这些基本个人信息进行采集处理并将处理后的基本个人信息传输至中央处理器;同时声音采集装置通过触控显示屏向用户提供不同文字段,并要求用户按特定速度读出不同文字段,分别采集不同文字段的用户声纹信息,再将采
集到的用户声纹信息转换为可建模的声纹数字信号并传输至预处理装置。
46.预处理装置首先对用户声纹信息进行降噪处理,得到不同文字段对应的降噪数据;再对声纹数字信号高频分量进行提升,提高语音信号的高频分量的分辨率,再进行汉明窗口函数加权,提取噪音得到噪音特征p;中央处理器对降噪数据进行gmm-ubm建模并提取模型的声音特征值,对声音特征值设定标签得到声音标签l
声音
=(l
文字段1
,l
文字段2
,
…
,l
文字段3
),对基本个人信息设定标签得到用户标签l
用户
=(姓名:xxx,性别:女,职业:教师),再根据噪音特征、用户标签和声音标签建立用户声音特征标签集x
用户
={p,l
声音
,l
用户
},并将得到的用户声音特征标签集存入储存模块。当声音采集装置再次采集到该用户的声纹信息时,信息处理模块基于声纹信息和上述步骤建立临时声音特征标签集x
临时
,同时对比模块提取储存模块中的用户声音特征标签集x
用户
,并将得到的临时声音特征标签集x
临时
与用户声音特征标签集x
用户
进行对比得到相似值,当相似值高于设定值时,中央处理模块提取用户基本个人信息并通过触控显示屏进行反馈。
47.以上所述的实施例仅是对本技术优选方式进行的描述,并非对本技术的范围进行限定,在不脱离本技术设计精神的前提下,本领域普通技术人员对本技术的技术方案做出的各种变形和改进,均应落入本技术权利要求书确定的保护范围内。
技术特征:
1.一种基于深度学习的声纹识别身份认证系统,其特征在于,包括:交互模块、信息处理模块、储存模块和对比模块;所述交互模块与所述信息处理模块连接,所述交互模块用于采集用户各项信息,所述用户各项信息包括用户个人信息和用户声纹信息;所述信息处理模块还与所述储存模块连接,所述信息处理模块用于对所述用户各项信息进行处理,得到噪音特征、用户标签和声纹标签;所述储存模块还与所述对比模块连接,所述储存模块用于构建用户基本信息库;所述对比模块还与所述信息处理模块和所述交互模块连接,所述对比模块用于基于所述用户基本信息库进行标签比对。2.根据权利要求1所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述交互模块包括:交互界面、个人信息采集单元和声音信息采集装置;所述交互界面分别与所述个人信息采集单元和所述声音信息采集装置连接,所述交互界面用于向用户提供交互选项;所述个人信息采集单元还分别与所述声音信息采集装置和所述信息处理模块连接,所述个人信息采集单元用于采集所述用户个人信息;所述声音采集装置还与所述信息处理模块连接,所述声音采集装置用于采集所述用户声纹信息。3.根据权利要求2所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述交互界面为触控显示屏。4.根据权利要求2所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述用户个人信息包括:姓名、性别和职业。5.根据权利要求2所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述信息处理模块包括预处理装置和中央处理器;所述预处理装置分别与所述交互模块和所述中央处理器连接,所述预处理装置用于对所述用户声纹信息进行预加重处理,并对处理后的信息进行汉明窗口函数加权,提取噪音,得到所述噪音特征;所述预处理装置还用于对所述用户声纹信息进行降噪处理,得到降噪数据;所述中央处理器还分别与所述个人信息采集单元和所述储存模块连接,所述中央处理器用于对所述降噪数据进行gmm-ubm自适应训练并建模,提取模型的声音特征值;所述中央处理器还用于对所述个人信息设定标签得到所述用户标签,对所述声音特征值设定标签得到所述声音标签。6.根据权利要求5所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述储存模块包括用户基本信息库;所述用户基本信息库与所述信息处理模块连接,所述用户基本信息库用于基于所述噪音特征、所述用户标签和所述声音标签构建并储存用户声音特征标签集。7.根据权利要求6所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述用户基本信息库构建方法包括:s1.采集用户个人信息并设定用户标签;s2.采集用户声纹信息并进行预加重处理,并对处理后的信息进行汉明窗口函数加权,
提取噪音,得到噪音特征;s3.对所述用户声纹信息进行降噪处理得到降噪数据,对所述降噪数据进行gmm-ubm建模并提取特征值,基于所述特征值设定标签,得到声音标签;s4.基于所述噪音特征、所述用户标签和所述声音标签建立用户声音特征标签集,并根据所述用户声音特征标签集建立用户基本信息库。8.根据权利要求1所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述对比模块包括微处理器;所述微处理器分别与所述交互模块、所述信息处理模块和所述储存模块连接,所述微处理器用于基于所述储存模块内的用户特征标签集与用户声纹信息进行对比。9.根据权利要求8所述一种基于深度学习的声纹识别身份认证系统,其特征在于,所述微处理器还用于基于噪音特征判断声音信息是否由机器发出。
技术总结
本申请公开了一种基于深度学习的声纹识别身份认证系统,包括:交互模块、信息处理模块、储存模块和对比模块;交互模块与信息处理模块连接,用于采集用户各项信息;信息处理模块还与储存模块连接,用于对用户各项信息进行处理,得到噪音特征、用户标签和声纹标签;储存模块还与对比模块连接,用于构建用户基本信息库;对比模块还与信息处理模块和交互模块连接,用于基于用户基本信息库进行标签比对。本申请基于深度学习模型对声纹进行处理,并建立用户基本信息库,能够高效、快速、准确的判断出该声音是否是本人,并且还能识别检测声音是人声还是机器声,从而使得声纹识别在应用场景中具有更高的准确率与效率。具有更高的准确率与效率。具有更高的准确率与效率。
技术研发人员:
蓝庆青 林永兴 胡萍 陈汉平
受保护的技术使用者:
浙江理工大学科技与艺术学院
技术研发日:
2022.06.28
技术公布日:
2022/9/30