自编码器是一种无监督学习算法, 其输出能够实现对输入数据的复现. 自编码器的概念是Rumelhart等[1]最早提出的, 自编码器是一种数据压缩算法, 它使用编码器实现数据压缩, 使用解码器实现解压缩. 编码阶段将高维数据映射成低维数据, 减少数据量; 而解码阶段正好相反, 从而实现对输入数据的复现.
2006年, Hinton等[2]将其作为一种降维方法发表在Science上. 文章通过使用“互补先验”的方法推导出一个快速贪婪算法, 逐层学习深度定向网络, 然后对整个网络的参数进行优化, 改善了传统方法易陷入局部极小的情况, 由此产生了深度自编码器. Bengio等[3]在深度自编码器的研究过程中, 加入了稀疏性的限制, 使用尽可能少的神经元学习提取有用的数据特征, 进而产生了稀疏自编码器. Vincent等[4]为了提高算法的健壮性, 在输入数据中加入了噪声, 形成了去噪自编码器. 2010年, Rifai等[5]在维度处理的过程中加以限制, 提出了收缩自编码器. 次年, Masci等[6]提出卷积自编码器用于构建卷积神经网络.
自编码器在其优化发展过程中, 被应用到很多领域, 比如图像分类、人脸识别、自然语言处理以及其他领域, 并取得了较好的成绩. 本文也将从这些方面着重介绍自编码器的特点及性能, 并对这些方法进行分析和比较.
2 基础介绍自编码器通过对输入数据进行压缩, 将其映射到低维空间中, 从而避免了“维度灾难”; 在解码阶段实现对输入数据的还原, 从而实现非监督的特征学习.
2.1 模型介绍一个自编码器有编码器和解码器两部分组成(如图1所示), 对于输入x, 通过编码函数:
$h = f(x): = {s_f}(Wx + p)$ | (1) |
得到编码h, 实现数据压缩. 其中sf为编码器的激活函数, 通常取为sigmoid函数, 即:
${s_f}(z) = \frac{1}{{1 + {e^{ - z}}}}$ | (2) |
W表示输入层和隐层之间的权值矩阵. 在解码阶段使用解码函数:
$r = g(h): = {s_g}({W^{\rm T}}h + q)$ | (3) |
将编码h映射到原始高维空间, 从而达到对输入的复现. 其中WT为隐层和输出层之间的权值矩阵(为简单起见, 这里的权值矩阵取为W的转置), sg为解码器的激活函数, 通常取为sigmoid函数或恒等函数, 即:
${s_g}({{z}}) = \frac{1}{{1 + {e^{ - {{z}}}}}}$ | (4) |
或:
${s_g}({{z}}) = {{z}}$ | (5) |
根据解码器激活函数的不同, L(x, y)通常有以下两种取法:
1) 当sg为恒等函数时, 取平方误差函数, 即:
$L\left( {x,y} \right) = {\left\| {x - y} \right\|^2}$ | (6) |
2) 当sg为sigmoid函数(xi∈[0, 1])时, 取交叉熵(cross-entropy)函数, 即:
$L\left( {x,y} \right) = - \sum\limits_{i = 1}^n {\left[ {{x_i}\log \left( {{y_i}} \right) + \left( {1 - {x_i}} \right)\log \left( {1 - {y_i}} \right)} \right]} $ | (7) |
在重构误差的基础上, 本文针对训练数据集S设置整体的损失函数(loss function)为:
$\begin{aligned}\displaystyle J\left( {W,b} \right) & =\left[ {\displaystyle\frac{1}{m}\sum\limits_{i = 1}^n {J\left( {W,b;{x^{\left( i \right)}},{y^{\left( i \right)}}} \right)} } \right]\\ & \;\;\;+ \displaystyle\frac{\lambda }{{2m}}\sum\limits_{l = 1}^{{n_l} - 1} {\sum\limits_{i = 1}^{{s_l}} {\sum\limits_{j = 1}^{{s_{l + 1}}} {{{\left( {W_{ji}^{\left( l \right)}} \right)}^2}} } } \\ & = \left[ {\displaystyle\frac{1}{m}\sum\limits_{i = 1}^n {\left( {\displaystyle\frac{1}{2}{{\left\| {{h_{W,b}}\left( {{x^{\left( i \right)}}} \right) - {y^{\left( i \right)}}} \right\|}^2}} \right)} } \right]\\ & \;\;\;+ \displaystyle\frac{\lambda }{{2m}}\sum\limits_{l = 1}^{{n_l} - 1} {\sum\limits_{i = 1}^{{s_l}} {\sum\limits_{j = 1}^{{s_{l + 1}}} {{{\left( {W_{ji}^{\left( l \right)}} \right)}^2}} } } \end{aligned}$ | (8) |
基本的自编码器可以看作一个三层的神经网络结构: 输入层、隐层、输出层, 其网络结构如图2所示. 图中xi表示输入节点, xi' 表示输出节点, “+1”表示偏置项, hW, b(x)表示经过三层网络结构之后对输入数据的近似输出.
2.2 自编码器算法流程 2.2.1 算法思路
自编码器算法的设计思路如下:
(1) 对于给定的无标签数据, 本文使用无监督学习方法学习特征. 对于无类标签的数据, 文中通过编码器将输入数据进行编码, 然后使用解码器得到一个输出信息, 如果输出近似等于输入数据, 则可以通过调整编码和解码阶段的参数, 使得重构误差最小.
(2) 将编码器产生的特征作为输入, 逐层训练下面层的网络. 由于第一个训练层得到的编码可以看作是输入数据的复现, 所以下面层的训练过程类似第一层.
有监督地微调整个神经网络. 在训练完所有层网络之后, 自编码器学习获得了可以较好地代表输入的特征, 并且这些特征可以最优地表示原始输入信号. 因此, 本文就可以在自编码器之后加入一个分类器(如SVM等), 然后通过有监督训练的方法实现对整个网络进行微调.
2.2.2 算法步骤(1) 求各层激活值.
通过前向传播的方法, 对每一层的神经元进行前向传导计算, 利用前向传播公式, 得到各层的激活值.
(2) 计算W和b的残差, 利用梯度下降法更新W和b, 使得输出更好的表示输入.
使用反向传播的方法, 求出最后输出层与个层神经元的残差, 利用梯度下降法不断更新W和b, 使得输出更接近输入.
自编码器的基本流程如图3所示.
2.3 自编码器算法实现
这里本文使用Matlab代码来实现自编码器算法. 首先, 本文将训练数据加载到内存, 定义并训练自编码器神经网络, 设置各参数初始值, 在训练过程中, 本文可以得到特征权重的可视化结果. 对于分类问题而言, 文中使用softmax分类器对样本进行分类. 表1中定义了算法中使用的函数及其功能.
在表1中的第一条Matlab语句中, 本文需要设置自编码器神经网络中参数的初始值, 并定义隐层神经元的数量. 通过上述方法, 文中使用一幅磁共振病理脑图像进行训练, 设置隐层神经元个数为100, 则可以得到病脑图像的可视化权值如图4所示.
3 实际应用
在实际生活中, 自编码器已经应用到了很多方面, 如自然语言处理、图像分类、人脸识别等, 这些应用使得自编码器拥有了更广阔的发展前景.
3.1 自然语言处理张开旭等[7]利用自编码器能够实现无监督学习的特点, 从大量无标注语料中提取词汇的高维分布信息, 使用自编码器学习得到的低维特征来提升中文分词词性标注任务的效果. 文中还将自编码器方法与主成分分析和k均值聚类的方法进行了比较. 在宾州中文树库5.0数据集上的实验表明, 自编码器能够显著提高从大规模无标注语料中学习词汇特征的效果.
刘勘等[8]使用微博数据作为分析对象, 利用基于深层噪音稀疏自编码器的短文本聚类算法进行无监督学习. 文章数据来源于大数据共享平台, 可分为IT、财经、健康三大类, 每一类取1500条微博. 通过Entropy和Precision两种方法衡量聚类效果, 最终得到深层噪音稀疏自编码器(DSAE)+ k-means的方法效果最好, 综合信息熵为0.207, 综合准确度为87.8%.
胡庆辉等[9]基于递归自编码器(RAE)方法, 使用真实的搜索引擎广告系统中的检索词-拍卖词对(共11 205例), 并在其中随机选取词对进行人工标注. 实验结果表明, RAE方法取得的实验准确率为85.12%, 高于传统的LDA和BM25方法.
王贵新等[10]采用稀疏自编码器和支持向量机(SVM)相结合的方法进行学习和分类仿真实验. 42 560条垃圾短信和70 000条正常短信作为测试样本, 采用深度学习理论, 考虑词语在短信中的权重, 在文本分类中取得了较好的分类效果, 但是使用该方法的训练时间较长.
秦胜君等[11]利用稀疏自编码器算法自动提取文本特征, 结合深度置信网络形成SD算法进行文本分类. 实验数据集来源于搜狗全网的新闻语料库, 可分为20个栏目的新闻数据, 从中随机抽取样本, 训练集数目分为300, 800和1300. 实验结果表明, 文中使用的SD算法在3个训练集上的准确率分别为: 78.6%, 88.0%, 92.3%. 在同一数据集上, 与SVM方法进行比较得出, 当样本数量较少时, SD算法容易出现过拟合现象, 准确率不如SVM, 但是当数据集较大时, SD算法的优势渐渐体现, 准确率和召回率都有所提升.
李翰清等[12]采用6000余条家庭服务语料库(包含60个意图)进行实验, 利用深度去噪自编码器方法提取指令的高阶特征、高斯核支持向量机进行训练和预测, 在所建语料库上进行多折交叉验证, 结果表明指令意图理解的平均准确率达到了96%以上.
魏扬威等[13]首先根据英语作文写作技巧提取了大量语言学特征, 再使用自编码器、特征离散化方法对特征进行重构, 然后用分层多项模型来输出文章的最终得分. 实验表明, 在使用自编码器将特征压缩到100维时, 相关系数达到0.787, 与直接使用支持向量机进行回归的实验相比, 准确率提升了3.4%.
刘广秀等[14]通过自编码器模型网络建造Adaboost框架下的弱分类器, 并在自编码器神经网络部分引入噪声, 更改不同参数以及层数构造弱分类器, 利用稀疏性来提高分类器的泛化能力. 实验使用NLPIR分词系统提取文本特征、TFIDF作为词语的权值, 根据权值来选择特征词, 并统计词频作为文本特征训练集. 以调节自编码器参数等方式实现每个分类器的结构互异性, 提高各分类器的分类各异性, 从而实现网络的结构设计使得不同弱预测器具有不同的预测倾向性, 提高系统泛化能力, 提高分类器分类效果.
李阳辉等[15]使用改进的降噪自编码器(IDAE)对微博情感进行分析, 模型的训练集和测试集通过COAE2014的微博评测数据集获取, 为检验模型的抗干扰能力, 作者采用Python方法从微博网页上直接爬取实时数据, 并将其作为样本集特意加入实验当中. 结果表明该方法聚类效果较好, 且准确度和稳定性与DAE相比有所提升.
刘红光等[16]在对中文新闻文本进行分类时, 采用降噪自编码器实现对文本的压缩及分布式的表示, 并使用SVM算法进行分类. 实验结果证明, 随着样本数目的增大, 分类准确率、召回率等都在提高, 平均分类准确率达到了95%以上, 但数据量依然较小, 并不能完全发挥该方法并行处理大容量数据的优势.
表2 列出了自编码器在自然语言处理中的应用以及其优化后的方法, 方法的特点中也介绍了该方法应用于该领域的优势及不足.
3.2 图像分类林少飞等[17]将稀疏自编码器方法应用到数字识别中, 通过多个系数自编码器的堆叠构建成的深度网络学习数字图像的特征, 最后使用softmax分类器进行数字分类. 实验通过matlab平台实现, 使用MNIST数据库(训练集60 000张手写数字图像, 测试集10 000张图像), 设置softmax层回归迭代100次, 第一层稀疏自编码器迭代100次, 第二层迭代100次, 微调部分迭代达到100次之后, 实验准确流畅高达98.00%.
尹征等[18]采用标准卷积自编码器方法, 选取MINIS和CIFAR-10数据集进行训练, 实验表明将卷积层相关理论运用到自编码器中能提高网络的识别性能, 并且实验识别率提高了2%, 识别错误率降低了近6%, 并且该方法对于加入了噪声的数据具有较强的鲁棒性.
樊养余等[19]使用一种基于卷积稀疏自编码器的方法, 对少量有标记抽象图像进行自适应的学习, 并使用平均梯度准则对所学到的权重进行排序, 用于对基于不同领域的特征学习结果进行比较. 实验使用Abstract100、Abstract280数据库中的数据进行分类, 结果表明, 该方法学习到的特征不仅能被用于认知层面的图像识别, 还能够被用于情绪语义层面的图像辨识, 这些结论也给深度学习在其他有限样本集合中的应用带来启发.
戴晓爱等[20]引用栈式稀疏自编码器自学习原始数据的特征表达, 然后将其连接到支持向量机分类器, 完成微调过程. 实验采用挪威NEO公司Hyspex成像光谱仪以地面成像方式在选定试验区获取的数据进行模拟性能测试, 选取全部7类108个波段数据, 实验精度达到87.82%. 但是该方法模型参数调整复杂, 易陷入局部最小或过拟合状态, 从而影响分类结果.
王杰等[21]使用稀疏自编码器的方法来对烟叶成熟度进行分类, 降低了人工成本. 实验样本采自河南农业大学科教实验园区的烟叶试验田. 该算法直接从像素层面提取所需特征, 减少了人为选定特征的时间, 并且避免了某些重要特征的丢失, 分类精确度高达98.63%.
张一飞等[22]为了提高传统遥感图像分类准确率较低的问题, 使用一种基于栈式去噪自编码器的分类方法, 采用无监督逐层分类的方法获得更具鲁棒性的特征表达, 然后通过误差反向传播方法对整个网络参数进行微调. 实验采用国产高分一号遥感数据, 分类精度高达95.7%, 高于传统的支持向量机和BP神经网络方法, 但是该方法时间消耗很大, 因此可能限制其大规模、深层次模型的应用.
刘洋洋等[23]提出将多尺度单层自编码器的方法应用到医学图像自动分类中, 选择ImageCLEFMed 2009数据集中20类共4780幅图像, 其中3350幅作为训练集, 选择原测试数据集中的1430幅作为本实验测试样本, 实验学习到的特征表示和总体准确率明显由于传统方法.
徐守晶等[24]基于Matlab平台, 使用CIFAR-10数据库中的STL-10数据集, 利用栈式去噪自编码器(SDA)的方法, 对包括飞机、鸟、小汽车、猫、狗、轮船、卡车、马、猴子、鹿等10类图像进行分类, 结合SIFT和ISDA特征检索查准率为91.3%.
Zeng等[25]开发了一种将单一图像SR耦合到深度自动编码器的数据传输模型, 通过探索广泛的数据自动学习LR/HR图像补丁的内在表示及其关系, 将LR表示精确地映射到其对应的HR表示的大数据传输函数. 与Set5和Set14数据集上的其他先进的算法相比较, 实验证明了文中提出方法具有卓越的有效性和效率.
表3列出了自编码器在图像分类中的应用以及其优化后的方法, 方法的特点中介绍了该方法应用于该领域的优势及不足.
3.3 目标识别
张宁等[26]基于深度自编码器设计了机场安检中的人脸识别系统, 使用Gabor小波函数作为卷积核函数, 在对原始图像分块的基础上进行卷积运算, 采用多个RBM堆叠组成的自编码器, 通过比较差异算法训练RBM, 实现自动提取人脸特征, 最后构建一个三层的BP神经网络, 将自动提取的人脸特征特作为输入, 将图像标签作为输出层, 通过反向传播算法训练网络进行人脸识别. 实验使用YALE数据库中的图片进行训练, 算法的平局正确率高达99.08%.
赵飞翔等[27]提出了一种基于栈式降噪稀疏自编码器的雷达目标识别方法, 通过设置不同隐层数量和迭代次数, 从雷达数据中高效地提取出各层次特征. 实验采用暗室仿真数据, 通过多次实验, 设置隐层数为4层, 隐层单元数分别为150-100-50-10, 训练迭代次数依次为10、30、50, 实验结果均高于90%.
康妙等[28]提出基于栈式自编码器(SAE)特征融合的合成孔径雷达(SAR)图像车辆目标识别算法, 然后利用softmax分类器微调网络, 提高了网络的融合性能. 实验基于MSTAR数据集的10类目标分类精度达95.88%.
张彦等[29]使用所有已知样本训练深度自编码器, 得到广义深度自编码器, 然后使用但样本目标的单个样本微调广义深度自编码器, 得到特定类别的深度自编码器, 识别时, 将识别图像输入每个特定类别的深度自编码器, 得到包含与测试图像相同类内变化的该类别的重构图像, 并用其训练softmax回归模型, 分类测试图像. 实验在公共测试库Extended Yale Face Database B及AR Database上进行, 在相同环境下, 比其他算法获得了更高的识别率, 并且识别一幅图像的所需平均时间更少.
李江等[30]针对传统方法识别人脸表情具有较差的鲁棒性的问题, 提出了一种基于降噪自编码器的方法, 同时为了避免由于样本不足造成的过拟合现象, 在全连接层采用了Dropout技术. 实验数据集采用CK+、JAFFE和Yale, 每个数据集的平均准确率分别为99.65%、98.92%、99.67%, 该方法也表明了该方法较强的鲁棒性和抗身份信息干扰的能力.
冉鹏等[31]在处理人脸识别问题时, 采用了栈式降噪自编码器的方法. 该方法可分为无监督的预训练和有监督的训练两个阶段. 无监督预训练阶段能够自动学习人脸的一般特性, 有监督训练阶段进行人脸识别的测试. 实验使用YALE、AR、FERE三个人脸数据库进行实验, 实验表明, 在不同数据库中, 文中提出的方法得到的测试准确率均由于其他方法.
于万钧等[32]为了提高气体识别的准确率, 提出了一种基于栈式降噪自编码器的方法, 并与千层机器学习算法的气体定性识别方法进行比较. 实验使用UCI机器学习气体数据集进行训练, 测试准确率达到82.2%, 高于传统手工提取特征的方法, 并且过程简单, 改善了传统方法的复杂过程.
表4列出了自编码器在目标识别中的应用以及其优化后的方法, 方法的特点中也介绍了该方法应用于该领域的优势及不足.
3.4 其他领域
陈国定等[33]将堆栈式稀疏自编码器应用到评估尾矿库的安全状况中, 实验数据采自于淳安某尾矿库, 该算法解决了多层网络结构权值易陷入局部最小的问题, 采用微调技术之后, 该方法的准确率高达99.27%, 但该方法作为深度神经网络的一种, 仍处于学术界的广泛讨论中, 将其应用于尾矿库安全评价仍需进一步的研究和实验, 以获取更优的效果.
李荣雨等[34]将平行堆栈式自编码器应用于过程工业预测建模中, 首先通过聚类算法对输入数据的属性进行聚类, 然后按结果将数据分类后输入并行的稀疏自编码器中进行特征的模块式提取, 联合学习得到的特征再进行逐层学习得到拟合结果. 在对加氢裂化的预测建模研究过程中, 本方法获得的平均预测准确率在95%以上, 在预测能力和稳定性能方面高于栈式自编码器和多层感知器.
李远豪[35]提出基于深度自编码器的人脸美丽吸引力预测模型, 利用深度自编码器网络提取人脸图像美丽特征, 然后用支持向量机分类器来预测人脸美丽. 在中国科学院CAS-PEAL-R1共享人脸库和互联网手机的人脸图像中, 得到该模型的预测性能达到了77.3%. 但是所学到的特征鲁棒性较低, 没有达到理想的预测效果, 这有待于后续深入研究.
于乃功等[36]基于深度自编码器与Q学习, 提出了移动机器人路径规划方法, 利用深度自编码器学习机器人所处环境特征, Q学习根据环境信息选择机器人要执行的动作, 从而让机器人通过与环境的交互, 实现自主学习. 机器人仿真实验证明了该方法的有效性.
寇茜茜等[37]将自编码器应用于金融领域, 提出了汇率时间序列预测的方法. 首先通过自编码器对时间序列进行无监督的特征识别与学习, 然后利用有监督微调的方法调整权值. 实验使用来源于真实金融市场的Time Series Data Library数据库, 文中使用的方法的预测效果优于传统的BP神经网络方法和SVR方法. 但是反向传导算法在网络层次过深时, 会出现梯度扩散的现象, 因此更适合网络层次不是特别深的预测.
王宪保等[38]利用堆栈式降噪自编码器的方法进行胶囊缺陷检测, 首先对样本进行降噪训练, 获取网络初始权值, 之后通过BP算法进行微调, 得到样本与无缺陷模版之间的映射关系, 通过对比实现测试样本的缺陷检测. 训练样本为包括裂纹、空洞和胶囊帽缺失的数据, 实验取得了100%的缺陷胶囊检出率, 但是该方法只能处理64×64维的图像, 处理高精度的缺陷图像将是今后研究主要工作.
SUN等[39]为了实现感应电动机的故障诊断, 提出了一种将去噪自编码融入稀疏自编码器的深度神经网络的方法, 提出了算法的鲁棒性, 结合反向传播算法对网络进行微调, 提高了分类的准确度, 通过引入“Dropout”训练方法, 降低了由过拟合带来的预测误差. 实验选用了50 Hz供电频率下的电动机, 以Y轴方向的振动信号作为试验处理信号, 信号采样频率为20 kHz. 实验得到的不同故障的平均识别正确率为97.61%.
表5列出了自编码器在其他领域中的应用以及其优化后的方法, 方法的特点中也介绍了该方法应用于该领域的优势及不足.
4 总结与展望
目前, 自编码器在图像分类、自然语言处理等多个方面都有了广泛的应用, 并且取得了不错的成果, 这也促进了自编码器的发展, 使其更有效地为人类服务.
(1) 自编码器能够自动提取特征, 这有效降低了传统手动提取特征的不足;
(2) 对于大数据训练问题, 自编码器能有效地避免过拟合情况的发生;
(3) 在各文献中的实验中, 与传统的神经网络相比, 自编码器方法取得的准确率都较高;
(4) 通过总结各文献的应用领域, 我们发现自编码器方法的应用范围较为广泛.
我们希望通过日后的研究工作, 自编码器能够更有效、更广泛地应用于我们的日常生活需要当中. 因此, 针对自编码器存在的以下不足:
(1) 深度自编码器需要逐层训练每一隐层, 然后才能使用某种算法对整个网络进行优化调整, 学习时间较长;
(2) 自编码器无监督学习的特性使得其学习获得的特征表示的物理意义并不明确;
(3) 深度自编码器处理的数据规模大, 结构较为复杂, 现有的软硬件设备均难以满足用户需求.
我们日后的研究重点将放在如何解决上述问题当中, 使自编码器更有效地发挥其优势, 为人类社会服务.
[1] |
Rumelhart DE, Hinton GE, Williams RJ. Learning representations by back-propagating errors. Nature, 1986, 323(6088): 533-536. DOI:10.1038/323533a0 |
[2] |
Hinton GE, Osindero S, Teh YW. A fast learning algorithm for deep belief nets. Neural Computation, 2006, 18(7): 1527-1554. DOI:10.1162/neco.2006.18.7.1527 |
[3] |
Bengio Y, Lamblin P, Popovici D, et al. Greedy layer-wise training of deep networks. Proceedings of the 19th International Conference on Neural Information Processing System. Canada. 2006. 153–160.
|
[4] |
Vincent P, Larochelle H, Bengio Y, et al. Extracting and composing robust features with denoising autoencoders. Proceedings of the 25th International Conference on Machine Learning. Helsinki, Finland. 2008. 1096–1103.
|
[5] |
Rifai S, Vincent P, Muller X, et al. Contractive auto-encoders: Explicit invariance during feature extraction. Proceedings of the 28th International Conference on Machine Learning. Bellevue, WA, USA. 2011. 833–840.
|
[6] |
Masci J, Meier U, Ciresan D, et al. Stacked convolutional auto-encoders for hierarchical feature extraction. Proceedings of the 21st International Conference on Artificial Neural Networks. Espoo, Finland. 2011. 52–59.
|
[7] |
张开旭, 周昌乐. 基于自动编码器的中文词汇特征无监督学习. 中文信息学报, 2013, 27(5): 1-7, 92. |
[8] |
刘勘, 袁蕴英. 基于自动编码器的短文本特征提取及聚类研究. 北京大学学报(自然科学版), 2015, 51(2): 282-288. |
[9] |
胡庆辉, 魏士伟, 解忠乾, 等. 基于递归自编码器的广告短语相关性. 计算机应用, 2016, 36(1): 154-157, 187. DOI:10.11772/j.issn.1001-9081.2016.01.0154 |
[10] |
王贵新, 彭娟, 郑孝宗, 等. 基于稀疏自编码器和SVM的垃圾短信过滤. 现代电子技术, 2016, 39(17): 145-148. |
[11] |
秦胜君, 卢志平. 稀疏自动编码器在文本分类中的应用研究. 科学技术与工程, 2013, 13(31): 9422-9426. DOI:10.3969/j.issn.1671-1815.2013.31.051 |
[12] |
李瀚清, 房宁, 赵群飞, 等. 利用深度去噪自编码器深度学习的指令意图理解方法. 上海交通大学学报, 2016, 50(7): 1102-1107. |
[13] |
魏扬威, 黄萱菁. 结合语言学特征和自编码器的英语作文自动评分. 计算机系统应用, 2017, 26(1): 1-8. DOI:10.15888/j.cnki.csa.005535 |
[14] |
刘广秀, 宋单单. 基于Adaboost框架下自动编码器提升方法的文本分类. 电子世界, 2016(11): 195, 197. |
[15] |
李阳辉, 谢明, 易阳. 基于降噪自动编码器及其改进模型的微博情感分析. 计算机应用研究, 2017, 34(2): 373-377. |
[16] |
刘红光, 马双刚, 刘桂锋. 基于降噪自动编码器的中文新闻文本分类方法研究. 现代图书情报技术, 2016, 32(6): 12-19. DOI:10.11925/infotech.1003-3513.2016.06.02 |
[17] |
林少飞, 盛惠兴, 李庆武. 基于堆叠稀疏自动编码器的手写数字分类. 微处理机, 2015(1): 47-51. |
[18] |
尹征, 唐春晖, 张轩雄. 基于改进型稀疏自动编码器的图像识别. 电子科技, 2016, 29(1): 124-127. |
[19] |
樊养余, 李祖贺, 王凤琴, 等. 基于跨领域卷积稀疏自动编码器的抽象图像情绪性分类. 电子与信息学报, 2017, 39(1): 167-175. |
[20] |
戴晓爱, 郭守恒, 任淯, 等. 基于堆栈式稀疏自编码器的高光谱影像分类. 电子科技大学学报, 2016, 45(3): 382-386. |
[21] |
王杰, 贾育衡, 赵昕. 基于稀疏自编码器的烟叶成熟度分类. 烟草科技, 2014(9): 18-22. |
[22] |
张一飞, 陈忠, 张峰, 等. 基于栈式去噪自编码器的遥感图像分类. 计算机应用, 2016, 36(S2): 171-174, 188. |
[23] |
刘洋洋, 唐奇伶. 基于多尺度单层自编码器的医学图像分类. 科教导刊, 2017(15): 20-21, 192. |
[24] |
徐守晶, 韩立新, 曾晓勤. 基于改进型SDA的自然图像分类与检索. 模式识别与人工智能, 2014, 27(8): 750-757. |
[25] |
Zeng K, Yu J, Wang RX, et al. Coupled deep autoencoder for single image super-resolution. IEEE Transactions on Cybernetics, 2017, 47(1): 27-37. DOI:10.1109/TCYB.2015.2501373 |
[26] |
张宁, 朱金福. 基于深度自动编码器的机场安检人脸识别系统设计. 计算机测量与控制, 2015, 23(2): 644-647. |
[27] |
赵飞翔, 刘永祥, 霍凯. 基于栈式降噪稀疏自动编码器的雷达目标识别方法. 雷达学报, 2017, 6(2): 149-156. |
[28] |
康妙, 计科峰, 冷祥光, 等. 基于栈式自编码器特征融合的SAR图像车辆目标识别. 雷达学报, 2017, 6(2): 167-176. |
[29] |
张彦, 彭华. 基于深度自编码器的单样本人脸识别. 模式识别与人工智能, 2017, 30(4): 343-352. |
[30] |
李江, 冉君军, 张克非. 一种基于降噪自编码器的人脸表情识别方法. 计算机应用研究, 2016, 33(12): 3843-3846. DOI:10.3969/j.issn.1001-3695.2016.12.072 |
[31] |
冉鹏, 王灵, 李昕. 一种基于栈式降噪自编码器的人脸识别方法. 工业控制计算机, 2016, 29(9): 100-101, 104. |
[32] |
于万钧, 安改换, 鹿文静, 等. 基于栈式降噪自动编码器的气体识别. 计算机工程与设计, 2017, 38(3): 814-818, 836. |
[33] |
陈国定, 姚景新, 洑佳红. 基于堆栈式自编码器的尾矿库安全评价. 浙江工业大学学报, 2015, 43(3): 326-331. |
[34] |
李荣雨, 徐宏宇. 平行堆栈式自编码器及其在过程建模中的应用. 电子测量与仪器学报, 2017, 31(2): 264-271. |
[35] |
李远豪. 基于深度自编码器的人脸美丽吸引力预测研究[硕士学位论文]. 江门: 五邑大学, 2014
|
[36] |
于乃功, 默凡凡. 基于深度自动编码器与Q学习的移动机器人路径规划方法. 北京工业大学学报, 2016, 42(5): 668-673. DOI:10.11936/bjutxb2015100028 |
[37] |
寇茜茜, 何希平. 基于栈式自编码器模型的汇率时间序列预测. 计算机应用与软件, 2017, 34(3): 218-221, 247. |
[38] |
王宪保, 何文秀, 王辛刚, 等. 基于堆叠降噪自动编码器的胶囊缺陷检测方法. 计算机科学, 2016, 43(2): 64-67. DOI:10.11896/j.issn.1002-137X.2016.02.014 |
[39] |
Sun WJ, Shao SY, Yan RQ. Induction motor fault diagnosis based on deep neural network of sparse auto-encoder. Journal of Mechanical Engineering, 2016, 52(9): 65-71. DOI:10.3901/JME.2016.09.065 |