主  题

不  限

  • 不  限
  • 1915年
  • 1949年
  • 1979年

不  限

  • 不  限
  • 1979年
  • 1949年
  • 1915年
  • 全  文
  • 主  题
  • 篇  名
  • 关键词
  • 作  者
  • 作者单位
  • 摘  要
  • 参考文献
  • 基  金
  • 文献来源
  • 发表时间
  • 中图分类号

主  题

不  限

  • 不  限
  • 1915年
  • 1949年
  • 1979年

不  限

  • 不  限
  • 1979年
  • 1949年
  • 1915年
  • 全  文
  • 主  题
  • 篇  名
  • 关键词
  • 作  者
  • 作者单位
  • 摘  要
  • 参考文献
  • 基  金
  • 文献来源
  • 发表时间
  • 中图分类号

全  文

不  限

  • 不  限
  • 1915年
  • 1949年
  • 1979年

不  限

  • 不  限
  • 1979年
  • 1949年
  • 1915年
  • 全  文
  • 主  题
  • 篇  名
  • 关键词
  • 作  者
  • 作者单位
  • 摘  要
  • 参考文献
  • 基  金
  • 文献来源
  • 发表时间
  • 中图分类号
设置
  • 关闭历史记录
  • 打开历史纪录
  • 清除历史记录
引用
筛选:
文献类型 文献类型
学科分类 学科分类
发表年度 发表年度
作者 作者
机构 机构
基金 基金
研究层次 研究层次
排序:
显示:
CNKI为你找到相关结果
抱歉!未检索到相关文献
建议您在全文内查看与“语音增强语音增强”内容相关的文献:

语音增强技术仿真分析  CNKI文献

分析了几种可以有效实现语音增强的方法 ,在计算机上进行仿真分析 ,得出减谱法抑制加性噪声效果好 ,运算量小 ,系统简单 ,是消除加性噪声的理想方法的结论。

孙新德 路玲... 《郑州航空工业管理学院学报》 2003年04期 期刊

关键词: 语音增强 / 算法分析 / MATLAB

下载(413)| 被引(2)

基于深层神经网络的语音增强方法研究  CNKI文献

语音增强是语音信号处理研究领域的一个重要分支。在过去的几十年中,有很多无监督的语音增强方法被提出,它们主要是通过先估计噪声的谱信息,然后从带噪语谱中将估计的噪声谱减掉以得到对干净语音谱的预测。但是由于噪...

徐勇 导师:戴礼荣 中国科学技术大学 2015-05-01 博士论文

关键词: 语音增强 / 深层神经网络 / 非平稳噪声 / 泛化能力

下载(4148)| 被引(89)

利用深度卷积神经网络提高未知噪声下的语音增强性能  CNKI文献

为了进一步提高基于深度学习的语音增强方法在未知噪声下的性能,本文从神经网络的结构出发展开研究.基于在时间与频率两个维度上,语音和噪声信号的局部特征都具有强相关性的特点,采用深度卷积神经网络(Deep convoluti...

袁文浩 孙文珠... 《自动化学报》 2018年04期 期刊

关键词: 语音增强 / 深度卷积神经网络 / 深度神经网络 / 噪声

下载(1021)| 被引(52)

基于深度神经网络的单通道语音增强方法回顾  CNKI文献

语音增强是一种试图从噪声中分离出语音的技术,目的是提高语音的质量和可懂度。在过去的几十年里,人们提出了多种类型的语音增强方法,但这些方法在非平稳噪声环境中的表现还未达到最佳程度,因为他们没有充分利用语音和...

鲍长春 项扬 《信号处理》 2019年12期 期刊

关键词: 语音增强 / 深度神经网络 / 深度学习 / 先验信息

下载(778)| 被引(20)

基于感知掩蔽深度神经网络的单通道语音增强方法  CNKI文献

本文将心理声学掩蔽特性应用于基于深度神经网络(Deep neural network,DNN)的单通道语音增强任务中,提出了一种具有感知掩蔽特性的DNN结构.首先,提出的DNN对带噪语音幅度谱特征进行训练并分别得到纯净语音和噪声的幅度...

韩伟 张雄伟... 《自动化学报》 2017年02期 期刊

关键词: 语音增强 / 深度神经网络 / 感知增益函数 / 掩蔽阈值

下载(461)| 被引(32)

基于麦克风阵列的语音增强算法的研究与实现  CNKI文献

在语音通信中,不可避免地会引入环境噪声,影响通信质量,所以人们希望获得清晰的语音处理设备,以及相应算法。传统的单麦克风因其算法简单且有一定效果而应用广泛。然而通信环境通常较为复杂,单麦克风降噪算法在定位和...

陈震昊 导师:吴蒙 南京邮电大学 2021-11-22 硕士论文

关键词: 麦克风阵列 / 语音增强算法 / 到达方向估计 / 回声消除

下载(475)| 被引(0)

基于深度神经网络的语音增强算法研究  CNKI文献

科技进步日新月异的今天,语音正逐步成为人机交互中的一种重要通道。然而在现实生活环境中,语音信号非常容易受到各种噪声的影响,从而导致人机交互的延时问题和错误识别问题。因此语音增强技术就显得尤为重要,此技术就...

魏泉水 导师:周献中 南京大学 2016-05-24 硕士论文

关键词: 语音增强 / 深度神经网络 / 谱减法 / 偏差法

下载(1014)| 被引(27)

基于深度学习的语音增强研究  CNKI文献

语音作为语言的声学表现,是人类信息交流最自然、最有效的手段之一。语音技术已广泛应用于耳机通话、手机通讯以及智能家居设备等日常生活中。在现实环境中,人或机器在获取语音信号的同时,会不可避免地受到各种噪声的...

李号 导师:高光来 内蒙古大学 2021-11-28 博士论文

关键词: 深度学习 / 语音增强 / 信噪比估计 / 语音降噪

下载(432)| 被引(0)

基于稀疏表示的语音增强方法研究  CNKI文献

语音在通信过程中不可避免的受到周围环境噪声的干扰,噪声过大时不仅使人们听不清对方的谈话内容,还容易使人们疲劳,产生烦躁的情绪。所以在接收端要进行去噪声处理,这就是语音增强技术或噪声抑制技术。在不引入新...

赵彦平 导师:赵晓晖 吉林大学 2014-06-01 博士论文

关键词: 语音增强 / 稀疏表示 / 字典训练 / 噪声估计

下载(1681)| 被引(20)

基于稀疏表示和字典学习的语音增强算法研究  CNKI文献

语音是人们进行语言交流的重要信息载体,但是在现实环境里,语音信号往往会被各种类型的干扰和噪声所污染。被污染的语音不仅会在主观上使人产生听觉厌恶和疲劳,而且还会严重影响语音信号的可懂度。语音增强的目的就是...

鲍光照 导师:叶中付 中国科学技术大学 2015-05-01 博士论文

关键词: 语音增强 / 语音分离 / 语音降噪 / 稀疏表示

下载(1571)| 被引(17)

语音增强技术研究综述  CNKI文献

语音增强是语音识别的重要组成部分,它是将尽可能纯净的原始语音从嘈杂的语音中提取出来。其目的是提高语音质量,从而提高语音识别的准确率。笔者在总结近年来的语音增强的相关算法的基础上,将这些算法进行分类,分为基...

曹丽静 《河北省科学院学报》 2020年02期 期刊

关键词: 语音增强 / 语音识别 / 机器学习

下载(2071)| 被引(8)

一种用于语音增强的卷积门控循环网络  CNKI文献

为了充分利用含噪语音特征来提高语音增强网络的性能,基于含噪语音在时间和频率两个维度上的相关性,本文结合卷积神经网络的局部特征提取能力和门控循环单元的长期依赖建模能力,设计了一种适用于语音增强的卷积门控循...

袁文浩 胡少东... 《电子学报》 2020年07期 期刊

关键词: 语音增强 / 深度神经网络 / 门控循环单元 / 卷积神经网络

下载(269)| 被引(10)

结合注意力机制的改进U-Net网络在端到端语音增强中的...  CNKI文献

设计了一个适用于端到端语音增强的改进的U-Net (Attention Dilated Convolution U-Net,ADC-U-Net)网络模型。与基线U-Net网络相比,一方面通过加入空洞卷积减小由采样带来的信息损失;另一方面引入了注意力机制结构,结...

武瑞沁 陈雪勤... 《声学学报》 2022年02期 期刊

关键词: 注意力机制 / ADC / U-Net / 端到端

下载(313)| 被引(0)

有监督学习条件下的单通道语音增强算法研究  CNKI文献

语言是实现人与人甚至机器之间便捷交流的信息工具,而语音信号是实现这种工具功能的介质。然而在现实生活生产中,语音信号经常会被各种类型的干扰噪声甚至是自身的反射信号所污染。受污染的语音,由于破坏了信号的结构...

张龙 导师:叶中付 中国科学技术大学 2017-05-01 博士论文

关键词: 单通道语音增强 / 有监督学习条件 / 语音降噪 / 语音解混响和降噪

下载(1242)| 被引(21)

基于改进谱减的语音增强算法研究  CNKI文献

语音是人类进行信息交流的重要媒介,但在现实的语音交流过程中,各种各样的环境和设备噪声总会对信息的传递产生干扰,降低通信质量。因此,为了有效地利用语音信号,需要将有用信息尽可能地从噪声环境中提取出来,而语音增...

吴卫鹏 导师:邓立新 南京邮电大学 2019-12-09 硕士论文

关键词: 语音增强 / 谱减法 / 掩蔽效应 / 贝叶斯估计

下载(580)| 被引(7)

学术研究指数分析(近十年)详情>>

  • 发文趋势
时间的形状