本发明公开了一种基于卷积神经网络的语音特征匹配方法,包括:S1,预处理,提取音频信号的梅尔谱图,在时域上切割成图像片段,对图像片段做傅里叶变换得到频谱信号;并提取出特征向量;S2,将音频样本的特征向量按照时间顺序排列后进行池化处理形成语音记录文件,并将语音记录文件转换成二值特征序列;S3,语音特征匹配,利用语音查询文件与语音记录文件进行比较,查找出与语音查询文件具有相同内容的语音记录文件。本发明提高了语音识别的准确率,降低了语音识别系统的复杂性,增强了软件健壮性。
基于深度学习方法的语音情感识别技术,根据通常语音情感中并不是所有语音信息帧都包含情感信息,基于该假设将语音分为情感帧和非情感帧,并针对现有深度学习方法中无法区分语音的情感帧和非情感帧,容易将非情感帧信息也一并学习的问题,提出面向语音情感识别的 LSTM-CTC 模型。同时,语音帧中含有的情感信息量也不一致,而LSTM-CTC 方法采用非此即彼的学习方式将语音帧判断为情感帧和非情感帧,而不考虑每一个情感帧的重要性,针对这个问题,检信ALLEMOTION语音情感识别从 Attention 的角度出发提出 AttRNN-RNN 模型。