计算机系统应用  2022, Vol. 31 Issue (6): 1-9   PDF    
基于CycleGAN的语音可懂度关键技术
肖晶1,2, 刘佳奇1,2, 李登实3, 赵兰馨3, 王前瑞3     
1. 武汉大学 计算机学院 国家多媒体软件工程技术研究中心, 武汉 430072;
2. 武汉大学 多媒体与网络通信工程湖北省重点实验室, 武汉 430072;
3. 江汉大学 人工智能学院, 武汉 430056
摘要:语音可懂度增强是一种在嘈杂环境中再现清晰语音的感知增强技术. 许多研究通过说话风格转换(SSC)来增强语音可懂度, 这种方法仅依靠伦巴第效应, 因此在强噪声干扰下效果不佳. SSC还利用简单的线性变换对基频(F0)的转换进行建模, 并且只映射很少维的梅尔倒谱系数(MCEPs). 因为F0和MCEPs是语音的两个重要特征, 对这些特征进行充分的建模是非常必要的. 因此本文进行了一个创新性研究即通过连续小波变换(CWT)将F0分解为10维来描述不同时间尺度的语音, 以实现F0的有效转换, 而且使用20维表示MCEPs实现MCEPs的转换. 除此之外, 还利用iMetricGAN网络来优化强噪声中的语音可懂度指标. 实验结果表明, 提出的基于CycleGAN使用CWT和iMetricGAN的非平行语音风格转换方法(NS-CiC)在客观和主观评价上均显著提高了强噪声环境下的语音可懂度.
关键词: 深度学习    可懂度增强    连续小波变换    iMetricGAN    CycleGAN    
Key Technologies of Speech Intelligibility Based on CycleGAN
XIAO Jing1,2, LIU Jia-Qi1,2, LI Deng-Shi3, ZHAO Lan-Xin3, WANG Qian-Rui3     
1. National Engineering Research Center for Multimedia Software, School of Computer Science, Wuhan University, Wuhan 430072, China;
2. Hubei Key Laboratory of Multimedia and Network Communication Engineering, Wuhan University, Wuhan 430072, China;
3. School of Artificial Intelligence, Jianghan University, Wuhan 430056, China
Abstract: Speech intelligibility enhancement is a perceptual enhancement technique for clean speech reproduced in noisy environments. Speaking style conversion (SSC) is used in many studies to achieve speech intelligibility, which relies solely on the Lombard effect and thus demonstrates poor performance with strong noise interference. In addition, the SSC method models the conversion of fundamental frequency (F0) with a straight forward linear transform and only maps Mel-frequency cepstral coefficients (MFCCs) with few dimensions. As F0 and MFCCs are critical aspects of hierarchical intonation, adequate modeling of these features is essential. Therefore, we use the continuous wavelet transform (CWT) to decompose F0 into ten dimensions to describe speech at different time scales for effective F0 conversion and represent MFCCs with 20 dimensions for MFCC conversion. Furthermore, we utilize an iMetricGAN to optimize speech intelligibility metrics in strong noise. The experimental results show that in objective and subjective evaluations, the proposed non-parallel speech style conversion method using CWT and iMetricGAN based on CycleGAN (NS-CiC) significantly increases speech intelligibility in robust noise environments.
Key words: deep learning     intelligibility enhancement     continuous wavelet transform (CWT)     iMetricGAN     CycleGAN    

语音可懂度增强是在嘈杂环境中再生干净语音(没有噪音)的感知增强技术, 常应用在移动设备通信时. 近几十年来, 语音可懂度增强[1]技术引起了广泛的关注. 最近的理论发展表明基于掩码原理和数字信号处理算法增强语音可懂度使语音自然度下降. 一些常见的提升语音可懂度的方法有修改谱特性[2], 非线性放大如范围压缩[3], 选择性的增强某些信号成分如文献[4], 或语音调制[5], 以及时间尺度的修改[6].

说话风格转换(SSC)[7]是一种数据驱动方法, 该方法基于一种被称为伦巴第效应[8]的特殊发声效果, 旨在改变给定语音信号的风格同时保持说话者的声学特征, 以增强语音可懂度. SSC通过参数化方法利用数据来对正常风格语音到伦巴第风格语音转换进行学习和建模, 可以对语音转换进行更全面的处理, 同时保证转换后的语音的质量和自然度. 本文遵循同样的策略使用一种基于WORLD声码器[9]的参数化方法.

目前主流的SSC方法分为平行SSC和非平行SSC. 对于平行SSC, 以前的方法利用基于平行数据的学习技术如高斯混合模型(GMM)[10], 深度神经网络(DNN)架构[11]和RNN架构[12], 该技术依赖于有效的源(正常)语音和目标(伦巴第)语音平行语音对. 然而, 在伦巴第反射下人说话的语速通常较慢. 平行SSC需要利用时间对齐操作对训练数据进行预处理这将会导致一些特征失真, 因此更加推荐使用非平行SSC来避免时间对齐操作. 最近的一些研究已经结合了循环一致的生成对抗网络(CycleGANs) 来学习生成接近目标的分布, 该方法不需要平行的语音对. 通过使用CycleGAN得到了非平行SSC, 该方法生成的语音比平行SSC生成的语音有更好的可懂度和自然度.

但是, 仍然存在两个主要的两个局限性:

(1) 基频(F0)是一维特征. ① F0既受短时依赖关系的影响, 也受长时依赖关系的影响. ② 如图1所示, 由于清音和浊音的存在, 导致F0是不连续的. 另一个更重要的特征即梅尔倒谱系数(MCEPs)是一种高维连续的特征. 文献[13]将MCEPs和一维的F0一起映射会导致分布混合, 而且其提取了40维MCEPs, 但是只用10维进行特征映射不能代表完整的伦巴第风格.

(2) 伦巴第效应在不同噪声环境中性能方面存在局限性, 仅具有伦巴第效应的SSC在信噪比非常低的强噪声干扰中效果不佳, 尤其在SNR≤0 dB的情况下.

图 1 F0的频谱图, F0是一维不连续特征 (蓝色区域表示清音帧, 红色区域表示浊音帧)

为了克服第1个局限性, 提出使用连续小波变换(CWT)映射F0的时间相关性, 并使用20维MCEPs特征全面地表示声学特征. CWT被用来描述多个时间尺度上的语音参数, 实际上, 其已经应用在许多领域中, 例如文献[14].

为了克服第2个局限性, 提出使用iMetricGAN[15], iMetricGAN是一个生成对抗网络(GAN)系统, 由生成器和判别器组成, 生成器作为可懂度增强模块用来增强语音信号, 判别器用来学习预测生成器生成语音的可懂度分数. 与一般的GAN网络不同, iMetricGAN的判别器不是用来鉴别真假, 而是作为一个学习代理尽可能地接近可懂度指标, 然后可以在这个代理的指导下适当地训练生成器.

本文的主要贡献包括: 1) 提出了一个基于CycleGAN使用CWT和iMetricGAN的非平行SSC框架, 称为NS-CiC; 2) 针对线性F0缺乏时间相关性的问题, 使用CWT变换将低维的F0处理成10维的CWT系数并映射了更高维的MCEPs特征; 3) 利用iMetricGAN方法优化对抗生成网络(GANs)的语音可懂度指标. 实验结果表明, NS-CiC在客观和主观评价上均显著提高了强噪声环境下的语音可懂度.

1 参照方法: 非平行SSC框架 1.1 基础框架

研究基准[13]的非平行SSC框架如图2所示. 源语音(输入)是正常风格的语音, 而目标语音(输出)是内容相同的伦巴第风格语音. 非平行SSC框架主要由3部分组成: 声码器分析器、特征映射和声码器合成器. 首先, 通过声码器分析器从输入信号中提取语音特征. 然后, 利用映射系统对与SSC密切相关的特征进行转换. 最后, 将映射的和未转换的特征输入声码器, 声码器合成伦巴第风格的目标语音.

1.2 CycleGAN

CycleGAN包含3部分损失: 对抗损失、循环一致性损失和身份映射损失, 通过这3个损失函数来学习源数据和目标数据之前的正向和反向映射. 对于正向映射, 其定义为:

$ \begin{split} & {L_{\rm{ADV}}}\left( {{G_{X \to Y}}, {D_Y}, X, Y} \right) = \hfill \\ &\quad\quad {\mathbb{E}_{y\sim P(y)}}\left[ {{D_Y}(y)} \right] + {\mathbb{E}_{x\sim P(x)}}[\log \left( {1 - {D_Y}\left( {{G_{X \to Y}}(x)} \right)} \right] \end{split} $ (1)

转换后的数据与目标数据的分布越接近, LADV就越小. 为了保证XGXY的上下文信息一致, 定义了循环一致性损失函数如下:

$ \begin{split} &{L_{\rm{CYC}}}\left( {{G_{X \to Y}}, {G_{Y \to X}}} \right) = {\mathbb{E}_{x\sim P(x)}}\left[ {{{\left\| {{G_{Y \to X}}\left( {{G_{X \to Y}}(x)} \right) - x} \right\|}_1}} \right] \hfill \\ &\quad\quad +{\mathbb{E}_{y\sim P(y)}}\left[ {{{\left\| {{G_{X \to Y}}\left( {{G_{Y \to X}}(y)} \right) - y} \right\|}_1}} \right] \end{split} $ (2)

该损失促使GXYGYX通过循环转换找到(x, y)的最佳伪对. 为了在没有任何额外处理的情况下保留语言信息, 引入了如下身份映射损失函数:

$ \begin{split} & {L_{\rm{ID}}}\left( {{G_{X \to Y}}, {G_{Y \to X}}} \right) = {\mathbb{E}_{x\sim P(x)}}\left[ {\left\| {{G_{Y \to X}}(x) - x} \right\|} \right] \hfill \\ &\quad\quad \quad\quad\quad\quad \quad\quad + {\mathbb{E}_{y\sim P(y)}}\left[ {\left\| {{G_{X \to Y}}(y) - y} \right\|} \right] \end{split} $ (3)
图 2 非平行SSC示意图

2 基于CycleGAN使用CWT和iMetricGAN的非平行SSC

文献[13]仅映射不连续的1维F0并将其与连续的10维MCEPs一起训练, 而且该系统不擅长处理强噪声的干扰. 为了克服这些局限性, 提出了NS-CiC方法.

2.1 基础框架

提出的框架的整个过程如图3所示, WORLD声码器以5 ms的帧偏移执行分析和合成. 基于语音的两个重要特性, 将整个框架分为两部分即CWT模块和iMetricGAN模块. 首先用声码器提取语音信号的F0和MCEP特征. 然后整个系统使用CycleGAN作为基础映射模型, 声码器提取的两个特征通过CWT模块和iMetricGAN模块的过程分别进行映射. 最后, 预测的特征和转变的特征一起作为声码器的输入以合成增强的语音.

在CWT模块中, F0是一维特征. 因为语音中存在浊音/清音, 因此从WORLD声码器中提取的F0特征是不连续的. 由于CWT对F0的不连续性很敏感, 对F0进行以下预处理步骤: 1) 在清音区域上进行线性插值; 2) 将F0从线性转换为对数; 3) 将F0标准化使其均值为0方差为1. 我们首先用CWT将1维的F0分解为10维并将不连续的F0插值为连续特征. 然后用CycleGAN网络来映射源训练数据和目标训练数据, 这些数据均来自于同一个人, 但是由不同的风格和能量组成. 最后, 用CWT逆变换将映射的10维F0变换成1维.

在iMetricGAN模块中, 用40维的MCEPs表示频谱包络, 前20维MCEPs (c0–c19)作为训练数据. 在第1阶段, 使用CycleGAN通过对抗损失和循环一致性损失同时学习正向和反向映射, 经CycleGAN预测, 正常语音的MCEPs转变为伦巴第特征. 在第2阶段, 使用iMetricGAN增强在强噪声环境中的可懂度. 将预提取的噪声特征和变换后的MCEP一起作为iMetricGAN模型的输入, 从而获得增强的MCEPs.

2.2 连续小波变换(CWT)模块

小波变换为信号提供了一种易于理解的可视化表示. 使用CWT, 可以将信号分解为不同的时间尺度.

我们注意到CWT已经成功地应用于语音合成[16]和语音转换[17].

给定一个有界的连续信号k0, 其CWT用W(k0)(τ, t)表示可以写成:

$ W\left( {{k_0}} \right)(\tau , t){\text{ }} = {\tau ^{ - 1/2}}\int_{ - \infty }^{ + \infty } {{k_0}} (x)\psi \left( {\frac{{x - t}}{\tau }} \right)dx $ (4)

其中, $ \psi $ 是Mexican-hat母小波函数. 原始信号k0可以通过逆变换从小波表示W(k0)中恢复, 如下:

$ {k_0}(t) = \int_{ - \infty }^{ + \infty } {\int_0^{ + \infty } W } \left( {{k_0}} \right)(\tau , x){\tau ^{ - 5/2}}\psi \left( {\frac{{t - x}}{\tau }} \right)dxd\tau $ (5)

但是, 如果关于W(k0)的所有信息都不可用, 则逆变换是不完整的. 在这项研究中, 将分析器固定在10个离散的尺度上, 相隔一个八度. 分解如下:

$ {W_i}\left( {{k_0}} \right)(t) = {W_i}\left( {{k_0}} \right)\left( {{2^{i + 1}}{\tau _0}, t} \right){(i + 2.5)^{ - 5/2}} $ (6)

逆变换得到的k0近似为:

$ {k_0}(t) = \sum\limits_{i = 1}^{10} {{W_i}} \left( {{k_0}} \right)(t){(i + 2.5)^{ - 5/2}} $ (7)

其中, i=1, …, 10, τ0=5 ms, 这些最初是在文献[18]中提出的. 因为语音的韵律在不同的时间维度上的表现是不同的. 图4(b)给出了10个维度的CWT分量, 而图4(a) 只能表示一维的不连续特征. 通过多维度表示, 低维度可以捕捉到短期变化, 高维度可以捕捉到长期变化. 通过这种方式, 能够对F0从细致的韵律级到整体语音级进行风格转换.

2.3 iMetricGAN模块

iMetricGAN模型框架如图5所示. 它由一个生成器(G)网络和一个判别器(D)网络组成. G接收语音s特征和噪声w特征, 生成增强的语音. 生成的语音表示为G(s, w). 给定sw, D被用于预测增强语音G(s, w)的可懂度分数. D的输出表示为D(G(s, w), s, w), 并希望它能接近通过特定方法计算得到的真实可懂度分数. 引入了函数Q(·)来表示要建模的可懂度指标, 即以比特为单位的高斯信道语音可懂度(SIIB G-auss)[19]和扩展短时客观可懂度(ESTOI)[20](已经取得了最好的表现).

图 3 提出的NS-CiC方法示意图

图 4 一维F0与多维CWT系数的频谱图

使用上述符号, 图5(a)中D的训练目标可以表示为最小化以下损失函数:

$ {L_D} = {\mathbb{E}_{s, w}}\left[ {{{(D(G(s, w), s, w) - Q(G(s, w), s, w))}^2}} \right] $ (8)

D训练的过程中, 损失函数被扩展到式(9):

$ \begin{split} & {L_D} = {\mathbb{E}_{s, w}}{[D(G(s, w), s, w) - Q(G(s, w), s, w))^2} \hfill \\ &\quad\quad \left. { + {{(D(\hat s, s, w) - Q(\hat s, s, w))}^2}} \right] \end{split} $ (9)

可以把式(9)视为有辅助知识的损失函数, 式(8)视为有零知识的损失函数. 请注意, $ \hat{s} $ 不应被视为真实语音特征或训练标签. G的训练过程如图5(b)所示, 其中, D的参数是固定的, 通过训练G以达到尽可能高的可懂度分数. 为了实现这一点, 将式(10)中的目标分数t设置为可懂度指标的最大值.

$ {L_G} = {\mathbb{E}_{s, w}}\left[ {{{(D(G(s, w), s, w) - t)}^2}} \right] $ (10)

GD迭代训练, 直到收敛. G充当增强模块, 通过训练G来欺骗D以获得更高的可懂度分数. 另一方面, D试图不被欺骗并准确评估转变后的语音的分数. 这个极大极小博弈最终使GD都有效. 因此, 通过G可以提高输入语音的可懂度.

图 5 iMetricGAN的网络框架及其训练过程

3 实验分析 3.1 实验设置

数据集: 选择了最新的开源伦巴第语料库(不使用视频数据) Lombard Grid[21]作为数据集, 该语料库包含30名女性说话者和24名男性说话者, 每个人以16 kHz采样率记录了50个正常风格的语音和50个伦巴第风格的语音. 语料库的2/3和1/3分别用于训练和评估. 我们选择了一个德语语料库[22]作为测试集, 该语料库包含来自8个说话者的40句话, 每句话具有3种不同的伦巴第风格0、55、70.

环境噪音: 参考相关研究, 从NOISEX-92数据库[23]中选取3种类型的噪声进行实验. 这3种噪音分别是Factory1 (非平稳)、Factory2 (非平稳)和Volvo (平稳). 我们将Volvo噪声的信噪比设置为−25 dB和−15 dB, Factory1和Factory2噪声的信噪比设置为−5 dB和0 dB.

对比方法: 我们设置了4组对比实验, 分别是CycleGAN方法, 最新的IISPA方法[24], 提出的10维MCEPs即NC-CiLC和20维MCEPs即NS-CiHC方法. 为了验证语音可懂度增强的效果, 在实验中还加入了正常语音.

提出的方法的实现: 在CycleGAN中, 参数的设置与参照方法相同. 如图5所示, D的输入特征是3通道频谱图(即已处理、未处理、噪声). D由5层具有以下数量的过滤器和卷积核大小: [8 (5, 5)]、[16 (7, 7)]、[32 (10, 10)]、[48 (15, 15)]和[64 (20, 20)]的2维CNN组成, 其中每层都带有LeakyReLU激活函数. 全局平均池化之后是最后一个CNN层, 该层产生固定的64维特征. 再连续添加两个带有LeakyReLU激活函数的全连接层, 这两层分别有64个节点和10个节点.D的最后一层是全连接层, 它的输出代表可懂度指标的分数. 因此, 最后一层的节点数等于可懂度指标的节点数. 我们将ESTOI评分标准化使其范围为0到1, 因此, 用ESTOI评分训练时, 最后一层使用Sigmoid激活函数.

超参数设置: CWT时间尺度设置: 将F0分解为不同时间维度的CWT系数, 并分别比较CWT系数的权重、对特征变换的影响程度以及实现的复杂度. 如图6(a)所示, 就特征变换的质量和复杂性而言, 发现将F0分解成10维的CWT系数更合适. MCEPs维度设置: 图6(b)为同一句子不同发声方式的MCEPs幅值谱(q=40). 将不同维度的MCEPs特征进行比较, 在大约q≤20时可以看到明显的数值差异, 而在20维后MCEP值都在0左右, 从粗粒度语音频谱图中看不出差异. 通过实验, 选择用40维表示频谱特征并选择前20维作为映射特征.

图 6 不同参数维度特征值的损失系数

客观实验设置: 通过计算F0的均方根误差(RMSE)[25]评估F0映射的性能, 并计算SIIB Gauss分数和ESTOI分数来证明在强噪声环境中通过iMetricGAN模型提高了可懂度, 从而进行客观评价. 最后, 比较了所有方法的整体性能.

使用RMSE代表F0预测的性能. 转换后的F0和相应的目标F0的RMSE被定义为:

$ {\textit{RMSE}} = \sqrt {\frac{1}{N}\sum\limits_{i = 1}^N {{{\left( {F0_i^c - F0_i^t} \right)}^2}} } $ (11)

其中, $ F0_i^c $ $ F0_i^t $ 分别表示预测和目标插值F0特征, NF0序列的长度. RMSE值越小代表F0预测性能越好. 主观实验设置: 主观听力评估采用比较平均意见评分标准(CMOS)[26]. 研究人员要求听者对两种方法得到的同一段话给出一个从−3分到3分的分数: –3: 很差; –2: 差; –1: 稍差; 0: 差不多; 1: 稍好; 2: 好; 3: 很好. 评分基于可懂度、自然度和舒适度. 20名参与者在一个消声室中用音频技术公司的ATH-M50x耳机进行测试, 参与者听到是被处理过并与噪音混合的语音. 这些参与者的年龄在18到30岁之间且英语口语流利. 由于听众选择有限, 没有对德语测试集进行主观听力测试. 选择信噪比为−5 dB和0 dB时的Factory1和Factory2以及信噪比为−15 dB和−25 dB时的Volvo作为重度和轻度噪声环境. 每位听众测试了96条记录: 每句话3种方法×(2名女性+2名男性)×6种噪音情景×3组比较.

3.2 性能测试

F0转换: 如表1所示, 女性组的F0失真比男性组更严重, 这是因为女性的F0值更高. 最初录制的清晰语音的RMSE值小于比较不清晰语音的RMSE值. 从大约提高了8%的SIIB Gauss分数和10%的ESTOI分数的可懂度指标可以看出, 与参照方法使用CycleGAN联合训练相比, NS-CiC将F0分解为10维的CWT系数具有更乐观的失真分布并且语音可懂度显著提高.

表 1 F0的平均RMSE损失

通过iMetricGAN增强可懂度: 表2给出了不同信噪比下的正常语音、伦巴第语音和经过iMetricGAN处理的语音的SIIB Guass分数和ESTOI分数, 从表中可以看出, 仅仅依靠伦巴第效应在轻微的嘈杂环境中有很好的提升作用, 但在严重的嘈杂环境中并没有达到增强的效果. 该表显示, 在强噪声环境下, iMetric-GAN方法使SIIB Guass分数和ESTOI分数分别提高了23.2%和23.6%.

表 2 用iMetricGAN增强伦巴第语音的分数

3.3 整体实验

客观评价: SIIB Guass和ESTOI用于估计说话者和听者之间共享的信息量, 单位为b/s. 图7(a)– 图7(c)给出了客观评估分数, 因为语音之间的分数非常接近, 所以省略了置信区间. 与正常情况相比, 在严重的噪声环境中, SIIB Guass分数最多提高50%而ESTOI分数大概提高了115%. 在轻度噪声环境中, 由于正常语音本身的清晰度, SIIB Guass分数提高了35%左右, ESTOI分数提高了50%. 与CycleGAN相比, 我们的方法主要将SIIB Guass分数提高了大约25%, ESTOI分数提高了30%. 与最新的IISPA方法相比, 我们的方法提升可懂度分平均高15%左右. 通过增加MCEPs维度, 可懂度方面的提升效果对比参照方法有稳定的提高, 将SIIB Guass分数和ESTOI分数分别提高约17%和18.6%. 图7(d)–图7(f)显示在德语测试集下增强效果更加明显. 总之, NS-CiHC比其他几种方法更能提高可懂度.

图 7 不同噪声环境下两种数据集可懂度值 (横坐标表示噪声(dB), 纵坐标表示可懂分(%))各子图第1行表示英语集结果, 第2行表示德语集结果

主观评价: 如图8所示, 没有低于0的分数, 这意味着提出的方法相对于CMOS评分显示, NS-CiC在质量上明显优于正常语音, 得分约为1.8分. 与CycleGAN相比, 大约达到了0.9分. 与轻度噪声环境相比, 我们的方法在重度噪声环境下的可懂度提升了10%. 总之, 主观实验的结果与客观实验的表现基本一致.

图 8 具有95%置信区间的平均CMOS评分

3.4 消融实验

我们将提出的NS-CiC框架进行了各个模块的实验测试, 如表3, 仅对F0的处理能够使语言的音调提升明显, 但声音的能量仍未变化, 可懂度值也提升在30%左右, 但在语言的细腻自然方面与Lombard更接近; 对MCEP的处理我们用到了iMetricGAN, 语音频谱表示了语音的能量大小, 可以看出在对频谱进行映射后的语音可懂分有大幅度的提升, 而且相较于正常Lombard的映射也提升了10%. 从中我们可以得出F0对语音的音调有决定性作用, 频谱包络对语音的能量有决定性作用, 本文分别进行F0的多时间尺度变换与MCEP的噪声增强处理能实现语音可懂度的增强.

表 3 不同模块对语音可懂度SIIB Gauss分的提升

4 结论

本文提出了一种高质量非平行的语音风格转换框架, 基于CycleGAN进行频谱和韵律转换. 用一种非线性方法研究使用连续小波变换(CWT)将F0分解为10维, 从而实现F0的有效转换, 还使用20维MCEPs来更全面的表示声学特征从而实现MCEPs转换. 考虑到伦巴第效应在强噪声环境下表现不是特别好, 所以使用iMetricGAN技术对其进一步增强. 实验结果表明, 提出的框架优于参照方法, 在客观评价中将SIIB Guass和ESTOI分数分别提高了25%和30%, 在主观评价中将CMOS分数提升了0.9, 有效地增强了语音可懂度.

参考文献
[1]
Kleijn WB, Crespo JB, Hendriks RC, et al. Optimizing speech intelligibility in a noisy environment: A unified view. IEEE Signal Processing Magazine, 2015, 32(2): 43-54. DOI:10.1109/MSP.2014.2365594
[2]
Taal CH, Hendriks RC, Heusdens R. Speech energy redistribution for intelligibility improvement in noise based on a perceptual distortion measure. Computer Speech & Language, 2014, 28(4): 858-872.
[3]
Licklider JCR, Pollack I. Effects of differentiation, integration, and infinite peak clipping upon the intelligibility of speech. The Journal of the Acoustical Society of America, 1948, 20(1): 42-51. DOI:10.1121/1.1906346
[4]
Arai T, Hodoshima N, Yasu K. Using steady-state suppression to improve speech intelligibility in reverberant environments for elderly listeners. IEEE Transactions on Audio, Speech, and Language Processing, 2010, 18(7): 1775-1780. DOI:10.1109/TASL.2010.2052165
[5]
Kusumoto A, Arai T, Kinoshita K, et al. Modulation enhancement of speech by a pre-processing algorithm for improving intelligibility in reverberant environments. Speech Communication, 2005, 45(2): 101-113. DOI:10.1016/j.specom.2004.06.003
[6]
Aubanel V, Cooke M. Information-preserving temporal reallocation of speech in the presence of fluctuating maskers. Proceedings of the 14th Annual Conference of the International Speech Communication Association. Lyon: ISCA, 2013. 3592–3596.
[7]
Paul D, Shifas MPV, Pantazis Y, et al. Enhancing speech intelligibility in text-to-speech synthesis using speaking style conversion. Proceedings of the 21st Annual Conference of the International Speech Communication Association. Shanghai: ISCA, 2020. 1361–1365.
[8]
Garnier M, Henrich N. Speaking in noise: How does the Lombard effect improve acoustic contrasts between speech and ambient noise?. Computer Speech & Language, 2014, 28(2): 580-597.
[9]
Morise M, Yokomori F, Ozawa K. WORLD: A vocoder-based high-quality speech synthesis system for real-time applications. IEICE Transactions on Information and Systems, 2016, E99-D(7): 1877-1884. DOI:10.1587/transinf.2015EDP7457
[10]
Kawanami H, Iwami Y, Toda T, et al. GMM-based voice conversion applied to emotional speech synthesis. Proceedings of the 8th European Conference on Speech Communication and Technology. Geneva: ISCA, 2003. 208–211.
[11]
Seshadri S, Juvela L, Räsänen O, et al. Vocal effort based speaking style conversion using vocoder features and parallel learning. IEEE Access, 2019, 7: 17230-17246. DOI:10.1109/ACCESS.2019.2895923
[12]
Ming HP, Huang DY, Xie L, et al. Deep bidirectional LSTM modeling of timbre and prosody for emotional voice conversion. Proceedings of the 17th Annual Conference of the International Speech Communication Association. San Francisco: ISCA, 2016, 2453-2457.
[13]
Seshadri S, Juvela L, Yamagishi J, et al. Cycle-consistent adversarial networks for non-parallel vocal effort based speaking style conversion. Proceedings of 2019 IEEE International Conference on Acoustics, Speech and Signal Processing. Brighton: IEEE, 2019. 6835–6839.
[14]
Ribeiro MS, Clark RAJ. A multi-level representation of F0 using the continuous wavelet transform and the discrete cosine transform. Proceedings of 2015 IEEE International Conference on Acoustics, Speech and Signal Processing. South Brisbane: IEEE, 2015. 4909–4913.
[15]
Li HY, Fu SW, Tsao Y, et al. iMetricGAN: Intelligibility enhancement for speech-in-noise using generative adversarial network-based metric learning. Proceedings of the 21st Annual Conference of the International Speech Communication Association. Shanghai: ISCA, 2020. 1336–1340.
[16]
Kruschke H, Lenz M. Estimation of the parameters of the quantitative intonation model with continuous wavelet analysis. Proceedings of the 8th European Conference on Speech Communication and Technology. Geneva: ISCA, 2003. 2881–2884.
[17]
Mishra T, Van Santen J, Klabbers E. Decomposition of pitch curves in the general superpositional intonation model. Proceedings of the 3rd International Conference on Speech Prosody 2006. Dresden: ISCA, 2006.
[18]
Sisman B, Li HZ. Wavelet analysis of speaker dependent and independent prosody for voice conversion. Proceedings of the 19th Annual Conference of the International Speech Communication Association. Hyderabad: ISCA, 2018. 52–56.
[19]
van Kuyk S, Kleijn WB, Hendriks RC. An evaluation of intrusive instrumental intelligibility metrics. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2018, 26(11): 2153-2166. DOI:10.1109/TASLP.2018.2856374
[20]
Alghamdi A, Chan WY. Modified ESTOI for improving speech intelligibility prediction. Proceedings of 2020 IEEE Canadian Conference on Electrical and Computer Engineering (CCECE). London: IEEE, 2020. 1–5.
[21]
Alghamdi N, Maddock S, Marxer R, et al. A corpus of audio-visual Lombard speech with frontal and profile views. The Journal of the Acoustical Society of America, 2018, 143(6): EL523-EL529. DOI:10.1121/1.5042758
[22]
Soloducha M, Raake A, Kettler F, et al. Lombard speech database for German language. Proceedings of the 42nd Annual Conference on Acoustics. Aachen, 2016.
[23]
Varga A, Steeneken HJM. Assessment for automatic speech recognition: II. NOISEX-92: A database and an experiment to study the effect of additive noise on speech recognition systems. Speech Communication, 1993, 12(3): 247-251.
[24]
Schädler MR. Optimization and evaluation of an intelligibility-improving signal processing approach (IISPA) for the Hurricane Challenge 2.0 with FADE. Proceedings of the 21st Annual Conference of the International Speech Communication Association. Shanghai: ISCA, 2020. 1331–1335.
[25]
Chai T, Draxler RR. Root mean square error (RMSE) or mean absolute error (MAE)?—Arguments against avoiding RMSE in the literature. Geoscientific Model Development, 2014, 7(3): 1247-1250. DOI:10.5194/gmd-7-1247-2014
[26]
Rec IP. 800: Methods for subjective determination of transmission quality. Geneva: ITU, 1996. 22.