近年来, 基于视觉和语言的跨模态任务, 如视频场景识别[1]、图文匹配[2]、视觉问答[3]等, 在学术界和工业界引起了越来越多研究者的兴趣. 其中, 视觉问答(Visual Question and Answering, VQA)可以用来测试智能机器对多模态信息的理解和推理能力, 故被认为是一种评估当前机器学习模型实现程度的“视觉图灵测试”. 因此, VQA越来越受到重视, 它的具体任务是给定一张图片和一个问题, 通过两者的合理融合生成相应的答案. VQA研究的重点在于如何更加全面的理解视觉内容和自然语言, 如何更精准地提取和表示模态特征, 以及如何更有效地融合跨模态信息. 为了挖掘图像突出区域与问题文本中重要词之间的对应信息, 在VQA任务中引入了注意机制. 目前主流的算法是将问题信息与图片信息经过注意力机制生成含有双边信息的特征, 再将其放到答案预测器中生成结果. 但是这种算法只考虑了问题和图像的双边信息, 却忽略了图像信息和问题信息自身的关联性. 因此, 本文提出一种新的模型, 该模型通过利用图片和问题的自关联性和共同注意力信息, 进一步提升答案和图片的契合度. 本文提出的模型在回答问题的准确率上与基线模型相比取得了一定的提升, 这进一步说明了该模型的有效性.
本文中, 创新点可以总结归纳为如下3点:
(1) 本文在单模态特征中增强了特征区域间的关联性, 使图像中区域框之间及问题中单词之间的关系更紧密.
(2) 本文提出对称注意力机制的图像问答模型, 该模型可以将图像与问题文本之间的双边信息以及图像区域与问题词的自相关统一在一起, 实现了较全面的语义理解与融合.
(3) 在VQA2.0上通过大量的实验对新模型进行了验证. 新模型准确率比DCA[4]的模型提高了1.22%, 表明了该方法的有效性.
2 相关工作 2.1 视觉问答像图文匹配一样, 视觉问答在人工智能领域作为一种综合计算机视觉和自然语言理解的任务被大家重视. 与其他视觉任务(行为识别[5], 目标检测[6], 图像描述[7])不同, 除了视觉语言基础信息外, 许多视觉问答示例还需要问题或图像中未包含的其他信息, 例如关于世界的背景常识. 问题的答案可以分为以下几种: 是/否、多选择、计数和开放式的单词/短语(关于什么、在哪里、谁、…). VQA在大多数研究中被划分成一个分类问题, 图像和问题作为输入, 答案作为输出类别. 目前, 视觉问答的解决方案都是使用卷积神经网络(Convolutional Neural Networks, CNN)对图像进行建模, 使用循环神经网络(Recurrent Neural Networks, RNN)或长短期记忆网络(Long Short Term Memory networks, LSTM)对于问题特征进行建模.
2.2 注意力机制注意力机制建立在人脑视觉注意机制的基础上, 在用于视觉问答之前, 已经被用于机器翻译[8], 图像描述[9]等任务. 在视觉问答系统中, 注意力机制与神经网络[10]结合被用来选择与问题信息最相关的图像区域. Yang等[11]构建了一个叠加注意网络, 以连续的方式生成图像上的多个注意图, 目的是进行多个推理步骤. 在EGCS[12]中, 作者使用multi-hop图像关注机制,目的是捕获问题中的细粒度信息. Shih[13]应用现有的区域提议算法来生成对象区域, 并选择最相关的区域来预测答案. Xiong等[14]提出了一种基于注意力的门控循环单位(Gated Recurrent Unit, GRU), 以促进答案的预测. 除了视觉注意力, 目前Nguyen等[4]已经提出了一种具有问题注意力的共同注意力机制. 同样, 本文将共同注意力机制应用于图像区域和问题关键词, 但是与文献[4]不同的是, 本文提出的模型考虑了问题信息和图像信息的自身关联性, 独立对待句子中的每个单词和图像中每个区域框.
3 视觉问答方法模块介绍 3.1 基于LSTM和RCNN的特征构造由于问题词具有顺序性, 故使用双向LSTM对其编码. 具体来说, 一个包含N个单词的问题首先被转换成一个GloVe向量序列
$\overrightarrow {{t_n}} = BiLSTM\left( {\overrightarrow {{t_{n - 1}}} ,el_n^{\rm{T}}} \right)$ | (1) |
$\overleftarrow {{{{t}}_n}} = BiLSTM\left( {\overleftarrow {{t_{n + 1}}} ,el_n^{\rm{T}}} \right)$ | (2) |
创建一个矩阵
同理, 遵循类似的过程对答案进行编码. 将包含M个单词的答案转换为
对于图像, 将其大小调整为448×448, 再输入到预训练好的ResNet-152网络中提取图像特征. 同时, 将ResNet-152的res5c层的输出作为对应于14×14空间分布区域的图像特征, 用
图1是本文所提出的对称注意力模型. 在3.1节中已经得到图像特征I和问题特征T: 现将他们输入到对称注意力模型中, 经过模型的训练最终生成相应的模态特征.
模型的右部分是经典的共同注意力架构[4], 首先对于给定的图像特征I和问题特征T, 通过叉乘运算得到注意力矩阵A, 再将A通过双层Softmax生成关于问题的注意力矩阵
$A = T \times {W_R} \times {I^ {\rm{T}} }$ | (3) |
${A_I} = softmax (A)$ | (4) |
${A_T} = softmax \left( {{A^ {\rm{T}} }} \right)$ | (5) |
${T_R} = T \times {A_T}$ | (6) |
${I_R} = I \times {A_I}$ | (7) |
其中, 式(3)的
模型的左部分增强了单模态特征中特征区域间的关联性. 将问题特征输入到一个全连接层, 得到单词对相关联的问题特征
${T_F} = {FCNet} (T)$ | (8) |
${I_F} = Dropout ({{FCNet}}(I))$ | (9) |
其中,
再将图像特征
$logits = {softmax} \left( {{T_F}^ {\rm{T}} \times {W_L} \times {I_F}} \right)$ | (10) |
${T_L} = logits \times {T_F}$ | (11) |
${I_L} = logits \times {I_F}$ | (12) |
其中, 式(10)中的
${T_A} = {T_R} \oplus {T_F}$ | (13) |
${I_A} = {I_R} \oplus {I_F}$ | (14) |
其中,
图2是本文提出的新模型整体架构, 这里所用答案预测层是目前比较常用的多层感知器(MultiLayer Perceptron, MLP)神经网络分类器, 它有2个隐藏层和1000个隐藏单元(dropout为 0.5), 每一层都有tanh非线性函数. 首先, 对输入的图像和问题分别提取特征, 图像特征和问题特征作为对称注意力模型的输入, 然后生成包含双边信息的特征, 再作为答案预测分类器的输入, 最终选出得分高的答案. 这个过程可以通过以下公式表示:
${T_A},{I_A} = {att} (T,I)$ | (15) |
$Ans = {answer} ({T_A},{I_A})$ | (16) |
其中,
3.4 总结
和现有的方法相比, 本文摒弃了只采用一个注意力特征矩阵来融合特征的方法或者将两模态特征简单连接的方法. 本模型通过已有的Faster RCNN和Bi-LSTM的方法构建了图像和问题的特征提取网络, 采用注意架构将两模态信息巧妙融合在一起, 既实现了对双边信息的理解, 又增强了图像区域特征的关联性和问题单词对之间的关联.
4 实验 4.1 数据集和实验细节本文使用最流行的数据集VQA 2.0[15]来进行实验. VQA[16](也称为VQA 1.0)包含来自MS COCO数据集[17]的204 721张图像上的人工注释的问答对. 预先将数据集分为train、val和test(或test-standard) 3个部分, 它们分别由248 349个问题、121 512个问题和244 302个问题组成. 所有的问题都被分为3种类型: 是/否、计数和其他, 每个问题都有10个自由回答的答案. VQA 2.0是VQA 1.0的更新数据集, 与VQA 1.0相比, 它包含的样本更多(train数据集有443 757个, val数据集有214 354 个, test 数据集有447 793个), 在语言方面更加均衡. 本文使用具有挑战性的开放式任务的VQA2.0数据集评估提出的模型.
与其他工作一样, 本文选择出现8次以上的正确答案作为候选答案集. 根据之前的研究, 本文在train+val分支上训练模型, 并在test-standard和test-dev进行测试.
4.2 实验细节本文所有实验均基于PyTorch框架, 并在装有一个Nvidia Tesla P100 GPU的计算机上进行实验. 使用的优化器的参数是
本文采用准确率来评测模型的质量和训练情况. 在图3中, 绘制了准确率随迭代次数变化而变化的折线图, 可以看出本文提出的方法模型的准确率折线快速收敛, 不断提高. 再与图4的直方图结合观察, 可以看出随着迭代次数的增加, 模型的准确率也在不断提升, 迭代次数为24时效果最佳, 最高可以达到66.34%. 通过图3, 不难看出在超过24个迭代的时候, 由于模型出现了过拟合现象, 模型的准确率会有小幅度的下降. 在表1中, 列举了其他模型(VQA team[15], MCB[18], MF-SIG-T3[19], Adelaide[20], DCA[4])和本文提出的模型在VQA2.0测试数据集上的准确率, 通过对比发现, 本文建立的模型具有较好的结果.
由表1可以看出, 本文提出的模型准确率优于基线模型. 新模型的Overall问答准确率比baseline在Test-dev数据集上提升了1.22%, Other问答准确率提升了0.72%, Number问答准确率提升了0.9%, Yes/No问答准确率提升了0.38%. 这些数据证明: 本文提出的模型可以在较少的训练迭代次数下收敛, 基于对称注意力机制的模型有效的提升了视觉问答的质量. 相比于传统的特征融合等方法, 对称注意力模型可以通过融合不同模态的信息, 增强问题信息和图像信息的自身关联性来大幅度提升答案分类的准确率.
5 结论与展望
本文提出了一种对称注意力机制的图像问答模型, 并在VQA2.0数据集上取得优异的成绩. 该算法的亮点在于使用全连接网络来挖掘图像区域之间的相关性, 联合基于共同注意力机制生成的双边信息特征, 达到更加精准的分类效果. 和DCA相比, 本文考虑了图像和问题的全面语义理解和融合, 较好地利用了自相关信息. 在未来的工作中, 将进一步探索视觉(短视频)问答系统和知识图谱对于答案分类的影响.
[1] |
袁韶祖, 王雷全, 吴春雷. 基于多粒度视频信息和注意力机制的视频场景识别. 计算机系统应用, 2020, 29(5): 252-256. DOI:10.15888/j.cnki.csa.007410 |
[2] |
Cha M, Gwon YL, Kung HT. Adversarial learning of semantic relevance in text to image synthesis. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 3272-3279. DOI:10.1609/aaai.v33i01.33013272 |
[3] |
Gao P, Jiang Z, You H, et al. Dynamic fusion with intra- and inter-modality attention flow for visual question answering. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA. 2019. 6632–6641.
|
[4] |
Nguyen DK, Okatani T. Improved fusion of visual and language representations by dense symmetric co-attention for visual question answering. Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. 2018. 6087–6096.
|
[5] |
Mohammadi S, Majelan SG, Shokouhi SB. Ensembles of deep neural networks for action recognition in still images. Proceedings of 2019 9th International Conference on Computer and Knowledge Engineering. Mashhad, Iran. 2019. 315–318.
|
[6] |
Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation. Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA. 2014. 580–587.
|
[7] |
Vedantam R, Zitnick CL, Parikh D. CIDEr: Consensus-based image description evaluation. Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA. 2015. 4566–4575.
|
[8] |
He HH. The parallel corpus for information extraction based on natural language processing and machine translation. Expert Systems, 2019, 36(5): e12349. DOI:10.1111/exsy.12349 |
[9] |
Ge HW, Yan ZH, Zhang K, et al. Exploring overall contextual information for image captioning in human-like cognitive style. Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Republic of Korea. 2019. 1754–1763.
|
[10] |
Andreas J, Rohrbach M, Darrell T, et al. Neural module networks. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. 2016. 39–48.
|
[11] |
Yang ZC, He XD, Gao JF, et al. Stacked attention networks for image question answering. Proceedings of 2016IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. 2016. 21–29.
|
[12] |
Xu HJ, Saenko K. Ask, attend and answer: Exploring question-guided spatial attention for visual question answering. Proceedings of 14th European Conference on Computer Vision. Amsterdam, the Netherlands. 2016. 451–466.
|
[13] |
Shih KJ, Singh S, Hoiem D. Where to look: Focus regions for visual question answering. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. 2016. 4613–4621.
|
[14] |
Xiong CM, Merity S, Socher R. Dynamic memory networks for visual and textual question answering. Proceedings of the 33rd International Conference on Machine Learning. New York City, NY, USA. 2016. 2397–2406.
|
[15] |
Agrawal A, Lu JS, Antol S, et al. VQA: Visual question answering. International Journal of Computer Vision, 2017, 123(1): 4-31. DOI:10.1007/s11263-016-0966-6 |
[16] |
Goyal Y, Khot T, Summers-Stay D, et al. Making the V in VQA matter: Elevating the role of image understanding in visual question answering. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA. 2017. 6904–6913.
|
[17] |
Lin TY, Maire M, Belongie S, et al. Microsoft COCO: Common objects in context. Proceedings of European Conference on Computer Vision. Zurich, Switzerland. 2014. 740–755.
|
[18] |
Fukui A, Park DH, Yang D, et al. Multimodal compact bilinear pooling for visual question answering and visual grounding. Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA. 2016. 457–468.
|
[19] |
Chen Z, Zhao YP, Huang SY, et al. Structured attentions for visual question answering. Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy. 2017. 1291–1300.
|
[20] |
Teney D, Anderson P, He XD, et al. Tips and tricks for visual question answering: Learnings from the 2017 challenge. Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. 2018. 4223–4232.
|