计算机系统应用  2022, Vol. 31 Issue (5): 298-303   PDF    
基于全局特征改进的行人重识别
张晓涵     
中国石油大学(华东) 计算机科学与技术学院, 青岛 266580
摘要:由于行人重识别面临姿态变化、遮挡干扰、光照差异等挑战, 因此提取判别力强的行人特征至关重要. 本文提出一种在全局特征基础上进行改进的行人重识别方法, 首先, 设计多重感受野融合模块充分获取行人上下文信息, 提升全局特征辨别力; 其次, 采用GeM池化获取细粒度特征; 最后, 构建多分支网络, 融合网络不同深度的特征预测行人身份. 本文方法在Market1501和DukeMTMC-ReID两大数据集上的mAP指标分别达到83.8%和74.9%. 实验结果表明, 本文方法有效改进了基于全局特征的模型, 提升了行人重识别的识别准确率.
关键词: 行人重识别    全局特征    感受野    GeM池化    特征融合    深度学习    
Improved Person Re-identification Based on Global Feature
ZHANG Xiao-Han     
College of Computer Science and Technology, China University of Petroleum, Qingdao 266580, China
Abstract: Person re-identification faces challenges such as posture change, occlusion interference, and illumination difference, and thus it is very important to extract pedestrian features with strong discriminability. In this paper, an improved person re-identification method based on global features is proposed. Firstly, a multi-receptive field fusion module is designed to fully obtain pedestrian context information and improve the global feature discriminability. Secondly, generalized mean (GeM) pooling is used to obtain fine-grained features. Finally, a multi-branch network is constructed, and the features of different depths of the network are fused to predict the identity of pedestrians. The mAP indexes of this method on Market1501 and DukeMTMC-ReID are 83.8% and 74.9%, respectively. The experimental results show that the proposed method can effectively improve the model based on global features and raise the recognition accuracy of person re-identification.
Key words: person re-identification     global feature     receptive field     generalized mean (GeM) pooling     feature fusion     deep learning    

行人重识别(person re-identification)也称行人再识别, 近年来引起学术界与工业界的广泛关注, 成为一个研究热点. 行人重识别旨在检索跨摄像头下的某一目标行人, 该技术可以与人脸识别、行人检测等相结合, 促进嫌犯追踪、走失救助等智慧安防领域以及无人超市等智慧商业领域的发展. 然而, 在真实的场景下, 不同摄像头的同一行人由于受到光照、姿态、遮挡、分辨率等各种因素的影响, 往往呈现很大的外观差异, 这给行人重识别的研究与应用带来诸多挑战[1]. 因此, 如何提取更具判别力的行人特征, 并采用高效的相似性度量方法以减小类内差距, 增大类间差距成为行人重识别的关键问题.

传统的行人重识别由特征提取与相似性度量两个子任务组成, 首先手工设计颜色、纹理、形状等低级特征对行人进行表示, 然后借助度量学习算法对特征距离进行约束, 无法实现端到端, 费时费力且精度普遍低下. 随着深度学习的兴起, 行人重识别将特征提取与相似性度量整合到一个统一的框架中. 通过卷积神经网络提取行人的高层特征, 同时设计度量损失函数控制类内类间距离, 大大提升了行人重识别的性能. 2016年, Zheng等[2]提出IDE模型, 把行人重识别看做一个分类任务, 成为后续很多工作的基线模型. 近年, 为了提升行人重识别在数据集上的精度, 大量工作采用结合行人局部特征的方法. Zhao等[3]提出的Spindle Net, 由姿态估计模型获得人体的若干关键点, 产生7个子区域, 然后分区域进行特征提取与融合. Kalayeh等[4]提出了SPReID, 为了获取局部特征, 将人体分割模型引入行人重识别中, 得到前景和4个不同身体区域的掩膜. Sun等[5]提出了经典的PCB网络, 把行人图像水平均分为6块, 得到6个局部特征向量, 之后每个特征向量都经过降维和全连接层后送入分类器中, 进行单独预测. 基于此工作, Wang等[6]结合了全局特征设计了MGN网络, 通过将行人图像分别水平均分为2块和3块, 得到了不同粒度的行人局部特征. 这些方法虽然性能表现更好, 但无疑增加了网络的复杂程度. 基于姿态估计的方法和基于语义分割的方法需要引入额外的标注信息, 很大程度上依赖于预训练模型的性能. 基于水平切块的方法通常包含多个支路, 且粗暴的划分容易造成相应部件语义不对齐问题. 而基于全局特征的行人重识别网络结构简单, 近年来一直被忽视, 具有很大的研究意义. 相似性度量方面, 通过将行人特征映射到欧几里得空间, 最小化度量损失使得正样本间特征距离减小, 负样本间特征距离增大. 行人重识别中的度量损失主要有对比损失[7]、三元组损失[8]、四元组损失[9]等, 其中使用最广泛的是三元组损失. 在三元组损失的基础上, Hermans等[10]提出了难样本采样三元组损失, 进一步提升模型的泛化性.

本文以ResNet50为骨干网络, 在特征提取层面做出3点改进, 最大程度上利用行人的全局特征: (1)设计一种多重感受野融合模块, 采用不同大小的卷积核获取不同感受野的行人信息; (2)采用GeM池化代替被普遍使用的全局平均池化获取细粒度特征; (3)分别从ResNet50的Conv4_x和Conv5_x层进行采样, 得到两个通道数不同的特征图, 各送入一个分支, 两个分支得到的特征均使用分类损失与难样本采样三元组损失联合训练. 本文方法在Market1501数据集与DukeMTMC-reID数据集上验证, 实验结果表明, 本文方法具有较好的表现, 甚至优于一些基于局部特征的方法.

1 本文方法

此前基于全局特征的行人重识别方法整体流程大致如图1所示, 网络提取特征后, 采用全局平均池化(GAP)获得全局特征向量, 之后经过全连接层获得低维的输出特征. 这类方法结构简单但精度普遍较低, 在此基础上, 本文对基于行人全局特征的方法进行了改进. 本文整体的网络结构如图2所示, 使用在ImageNet上预训练过的ResNet50作为骨干网络, 该网络在行人重识别中被普遍使用. 移除网络最后的平均池化层和全连接层, 把最后一个卷积层的步长由2设为1以获取分辨率更高的特征图, 这就使得Conv4_x与Conv5_x采样的特征图具有相同的尺寸. 之后是两个独立的分支, 第一个分支是从Conv5_x得到的特征图, 经过本文设计的多重感受野融合模块, 之后进行GeM池化, 得到2 048维的特征向量, 使用难样本采样三元组损失约束. 该特征向量经过一个全连接层得到512维的输出特征, 使用交叉熵损失约束. 第二个分支是从Conv4_x得到通道数为1 024的特征图, 后续结构与第一分支保持相同. 在测试阶段, 将两个分支经过GeM池化得到的特征向量进行融合得到3 072维的向量对行人进行检索.

图 1 基于行人全局特征的网络结构

1.1 多重感受野融合模块

图1所示, 基于全局特征的行人重识别方法在提取特征之后, 通常直接进行池化操作获取行人的全局特征向量. 但是, 在行人重识别中存在行人尺度变化的问题, 而对于尺度不同的的目标来说, 不同大小的感受野将会产生不同的效果. 如果不考虑此问题, 直接将网络提取到的特征输入到后续的池化层中, 将在一定程度上降低行人重识别的识别精度. 为了适应行人的尺度变化, 本文在网络提取特征后先经过本文设计的多重感受野融合模块, 该模块通过在不同分支设置不同的感受野大小, 最后进行融合, 有效利用目标上下文信息. 空洞卷积[11]最初源于语义分割任务, 不需要增加参数量便可实现扩大感受野的目的. 如图3所示, 多重感受野融合模块共包含3个分支, 对输入的特征图X分别进行卷积操作. 3个分支均选取3×3卷积核, 但空洞率分别为1、2、3, 得到特征图F1、F2、F3. 为了更有效地利用来自不同分支的特征, 关注更重要的信息, 将F1、F2、F3分别经过一个通道注意力模块, 这里的通道注意力模块源于卷积注意力模块[12], 该模块结构如图4所示. 在通道注意力模块中, 输入的特征图同时采用最大池化与平均池化得到两个一维的向量, 之后被送进权重共享的多层感知机中, 将输出进行逐元素的相加后经过Sigmoid激活即可得到对应的注意力权重. 将3个分支得到的注意力权重系数分别于特征图F1、F2、F3相乘, 得到通道加权后的特征F1′、F2′、F3′. 最后, 将F1′、F2′、F3′进行融合, 即可得到最终的输出特征X′. 多重感受野融合模块可以有效聚合不同感受野的特征, 使行人重识别性能进一步得到提升.

图 2 本文网络结构

图 3 多重感受野融合模块

图 4 通道注意力模块

1.2 GeM池化

在行人重识别网络中, 提取全局特征之后通常采用全局平均池化, 如图1所示. 全局平均池化关注的是图像整体的信息, 很容易受到背景和遮挡的干扰. 因此, 在本文中, 采用generalized-mean (GeM)池化[13], 该池化方法已在图像检索任务中取得了显著成果. 相比于传统的全局平均池化, GeM池化包含了可学习的参数捕获细粒度信息. 公式如下:

$ f = {[{f_1}\cdots{f_k}\cdots{f_K}]^{\rm T}}, {f_k} = {\left(\frac{1}{{|{X_k}|}}\sum\limits_{x \in {X_k}} {{x^{{p_k}}}} \right)^{\frac{1}{{{p_k}}}}} $ (1)

其中, X为池化层的输入, f为池化层的输出. $ {p_k} $ 是一个超参数, 在反向传播的过程中学习. 当 $ {p_k} = 1 $ 时, GeM池化等价于全局平均池化; 当 ${p_k}\to\infty$ 时, GeM池化等价于全局最大池化.

1.3 多层特征融合

目前, 大部分行人重识别工作仅利用网络最后一个卷积层提取到的高层语义特征图, 如图1所示. 高层语义特征能有效获取行人的显著信息, 但会忽视部分细节信息, 而这些细节信息对行人身份的判别同样有效. 因此, 为弥补缺失的细节信息, 本文同时采样低层特征, 进行多层特征融合. 具体来说, 分别采样ResNet50的Conv5_x的高层显著特征与Conv4_x低层细节特征, 得到两个特征图, 通道数分别为2 048和1 024. 如图2所示, 两个特征图形成两个独立的分支G1和G2, 两分支采用相同的结构, 都经过多重感受野融合模块-GeM池化-全连接层. 两分支都使用交叉熵损失与难样本采样三元组损失训练, 在测试时, 将两个分支的特征向量进行融合, 通过整合网络不同深度的信息进行预测. 多层特征融合的操作, 结合了行人的高层显著信息与低层细节信息, 使得特征更具判别力.

1.4 损失函数

本文联合交叉熵损失与难样本采样三元组损失预测行人的身份. 交叉熵损失被广泛应用于图像分类任务中, 通过最小化真实概率分布与预测概率分布之间的差异对网络进行优化. 在行人重识别中, 每张行人图像对应一个身份标签, 因此可以转化为一个分类问题.使用身份标签作为监督信号, 类别数即为训练集中行人身份数. 对于第i个学习到的特征fi, 交叉熵损失表示如下:

$ {L_{\rm{Softmax} }} = - \sum\limits_{i = 1}^N {\log \frac{{{e^{W_{yi}^{\rm T}{f_i}}}}}{{\displaystyle\sum\nolimits_{k = 1}^C {{e^{W_k^{\rm T}{f_i}}}} }}} $ (2)

其中, N表示一个批次中的图像数量, Wk表示对应类别的权重向量, C表示训练集中行人的类别数. 在本文实验中, 把G1分支学习到的512维特征与G2分支学习到的512维特征计算交叉熵损失. 交叉熵损失函数使得行人图像接近所属的类别, 实现分类的效果.

此外, 行人重识别本质是一个图像检索问题, 这就需要引入一个度量学习函数使网络学习两张图像之间的相似度. 对于行人重识别来说, 就是使得相同行人不同图像之间比不同行人不同图像之间更为相似. 三元组损失经常被用于行人重识别任务中, 但由于行人图像存在大量外观相似的负样本对, 如果采样简单易区分的样本进行训练, 不利于网络学习到更有用的特征从而提升模型的可泛化性. 因此, 本文中对G1分支的2 048维特征与G2分支的1 024维特征使用难样本采样三元组损失, 公式如下:

$ \begin{split} &{L_{\rm{triplet}}} =\\ &- \sum\limits_{i = 1}^P \sum\limits_{a = 1}^K [\alpha + \mathop {\max }\limits_{p = 1,\cdots, K} ||f_a^{(i)} - f_p^{(i)}|{|_2} - \mathop {\mathop {\mathop {\min }\limits_{n = 1,\cdots, K} }\limits_{j = 1,\cdots, P} }\limits_{j \ne i} ||f_a^{(i)} - f_n^{(j)}|{|_2}]_ + \end{split} $ (3)

在一个训练批次中, 选取P个身份的行人, 每个行人采样K张图像. $ f_a^{(i)} $ $ f_p^{(i)} $ $ f_n^{(j)} $ 分别为采样得到的锚图像、正样本图像、负样本图像的的特征, $ \alpha $ 是一个超参数. 在这里由困难正负样本与锚图像组成三元组, 即身份标签相同但距离最远的样本与身份标签不同但距离最近的样本.

2 实验过程 2.1 实验数据集

本文在行人重识别最常用的Market-1501数据集和DukeMTMC-ReID数据集上进行评估与分析. Market-1501数据集采集自5个高分辨率摄像头和1个低分辨率摄像头, 共包含1 501个行人的32 668张图像. 其中训练集由751个行人的12 936张图像组成, 测试集由其他750个行人的3 368张query图像与19 732张gallery图像组成. DukeMTMC-ReID数据集取自DukeMTMC数据集, 该数据集由8个高分辨率摄像头拍摄的1 404个行人的36 411张图像组成. 随机采样702个行人的16 522张图像组成训练集, 剩余702个行人的2 228张query图像和17 661张gallery图像组成测试集.

2.2 评估标准

本文实验使用行人重识别普遍使用的平均准确度mAP (mean average precision)和首位命中率Rank-1作为评估标准.

2.3 实验设置

本文实验基于PyTorch框架, 实验环境为NVIDIA Tesla P100. 骨干网络采用在ImageNet上预训练的ResNet50, 移除最后的全连接层与平均池化层, 并将最后一块的卷积步长设为1. 实验所采用的行人图像尺寸为256×128, 通过随机擦除、随机水平翻转、随机裁剪进行数据增强. 设置一个训练批次为32, 一个批次选取的行人类别数P=4, 一个行人采样的图片数K=8. 超参数 $ \alpha $ 设置为0.3, $ {p_k} $ 设置为3. 采用SGD优化器进行梯度更新, weight decay设为5E–4, momentum设为0.9. 共训练80个epoch, 初始学习率为0.05, 训练40个epoch后学习率衰减至原来的1/10.

3 实验分析 3.1 消融实验

为了分析本文各模块的有效性, 分别在Market-1501数据集和DukeMTMC-ReID数据集进行消融实验, 具体结果如表1表2所示. 其中, w/o MFF表示去掉多重感受野融合模块, w/o GeM表示去掉GeM池化采用全局平均池化, w/o MSF表示去掉多尺度特征融合只保留G1分支的结果.

表 1 Market-1501数据集上去掉各模块的结果(%)

表 2 DukeMTMC-ReID数据集上去掉各模块的结果(%)

从实验结果可以看出, 本文各模块都起到了一定的作用. 去掉多重感受野融合模块, Market-1501数据集和DukeMTMC-ReID数据集的mAP分别为82.6%和73.9%, 添加多重感受野融合模块之后, 两个数据集上的mAP分别提升了1.2%和1.0%. 这证明了该模块可以有效获取整合不同感受野的特征, 减轻行人图像尺度变化带来的负面影响. 为了证明本文中GeM池化更有优势, 将网络中的GeM池化替换为一般的全局平均池化. 结果表明, 采用GeM池化后, 在Market-1501数据集上和DukeMTMC-ReID数据集上的mAP分别提升了1.6%和2.8%, Rank-1分别提升了0.8%和1.2%. 同时, 相比于去掉G2分支, 只保留G1分支训练和测试, 本文方法在Market-1501数据集上mAP提升了2.2%, Rank-1提升了0.6%, 在DukeMTMC-ReID数据集上mAP提升了3.9%, Rank-1提升了1.2%. 结果表明, 融合多层信息可以提升网络性能.

3.2 对比实验

表3表4分别给出了本文方法在Market-1501数据集和DukeMTMC-ReID数据集上与其他行人重识别方法的对比, 包括传统方法(LOMO+XQDA[14]、BoW+kissme[15])和基于深度学习的方法(IDE[2]、SVDNet[16]、HA-CNN[17]、PCB+RPP[5]、Mancs[18]、IANet[19]). 从表中可以看出, 传统方法在数据集上的表现较差. 此外, 相比于近年来基于深度学习的方法, 本文方法均有显著提升. 具体来说, 本文方法在Market-1501数据集上的mAP指标达到83.8%, 在引入重排序算法[20]后, mAP达到了92.6%. 同时, 在DukeMTMC-ReID数据集上的mAP指标达到74.9%, 通过重排序后, 精度进一步提升, 其中mAP达到了88.6%. 本文方法具有竞争性, 虽然是基于简单的全局特征进行改进, 效果却优于部分基于局部特征的方法, 如PCB+RPP[5].

表 3 Market-1501数据集上与其他方法的对比(%)

表 4 DukeMTMC-ReID数据集上与其他方法的对比(%)

将检索结果可视化, 如图5所示, 实线框的检索结果表示该图像匹配正确, 虚线框的检索结果表示该图像匹配错误. 从匹配结果来看, 本文方法取得了较高的检索准确率. 但一些外观十分相似的不同行人很难区分, 虽然难样本采样三元组损失一定程度上减轻了该问题, 但还是会造成少数样本误检测.

图 5 可视化结果

4 结论与展望

本文提出了一种基于全局特征的行人重识别方法. 为适用行人尺度变化, 设计多重感受野融合模块, 采用空洞率不同的卷积核进行卷积操作并使用注意力模块获取关键特征, 然后将各分支的特征进行融合. 此外, 将全局平均池化替换为更有效的GeM池化. 采样网络不同深度的特征送入不同分支, 测试时将多层特征融合用来预测. 在公开数据集上的实验表明, 本文方法具有较好的性能. 未来研究中将考虑行人重识别的实用性, 尤其是在无监督与跨模态方面提升检索准确率.

参考文献
[1]
罗浩, 姜伟, 范星, 等. 基于深度学习的行人重识别研究进展. 自动化学报, 2019, 45(11): 2032-2049.
[2]
Zheng L, Yang Y, Hauptmann AG. Person re-identification: Past, present and future. arXiv: 1610.02984, 2016.
[3]
Zhao HY, Tian MQ, Sun SY, et al. Spindle Net: Person re-identification with human body region guided feature decomposition and fusion. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 907−915.
[4]
Kalayeh MM, Basaran E, Gökmen M, et al. Human semantic parsing for person re-identification. Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 1062−1071.
[5]
Sun YF, Zheng L, Yang Y, et al. Beyond part models: Person retrieval with refined part pooling (and a strong convolutional baseline). Proceedings of the 15th European Conference on Computer Vision. Munich: Springer, 2018. 501–518.
[6]
Wang GS, Yuan YF, Chen X, et al. Learning discriminative features with multiple granularities for person re-identification. Proceedings of the 26th ACM International Conference on Multimedia. Seoul: ACM, 2018. 274–282.
[7]
Hadsell R, Chopra S, LeCun Y. Dimensionality reduction by learning an invariant mapping. Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2006. 1735–1742.
[8]
Schroff F, Kalenichenko D, Philbin J. FaceNet: A unified embedding for face recognition and clustering. Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015. 815–823.
[9]
Chen WH, Chen XT, Zhang JG, et al. Beyond triplet loss: A deep quadruplet network for person re-identification. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 1320–1329.
[10]
Hermans A, Beyer L, Leibe B. In defense of the triplet loss for person re-identification. arXiv: 1703.07737, 2017.
[11]
Yu F, Koltun V. Multi-scale context aggregation by dilated convolutions. arXiv: 1511.07122, 2015.
[12]
Woo S, Park J, Lee JY, et al. CBAM: Convolutional block attention module. Proceedings of the 15th European Conference on Computer Vision. Munich: Springer, 2018. 3–19.
[13]
Radenović F, Tolias G, Chum O. Fine-tuning CNN image retrieval with no human annotation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 41(7): 1655-1668. DOI:10.1109/TPAMI.2018.2846566
[14]
Liao SC, Hu Y, Zhu XY, et al. Person re-identification by local maximal occurrence representation and metric learning. Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015. 2197–2206.
[15]
Zheng L, Shen LY, Tian L, et al. Scalable person re-identification: A benchmark. Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago: IEEE, 2015. 1116–1124.
[16]
Sun YF, Zheng L, Deng WJ, et al. SVDNet for pedestrian retrieval. Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE, 2017. 3820–3828.
[17]
Li W, Zhu XT, Gong SG. Harmonious attention network for person re-identification. Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018. 2285–2294.
[18]
Wang C, Zhang Q, Huang C, et al. Mancs: A multi-task attentional network with curriculum sampling for person re-identification. Proceedings of the 15th European Conference on Computer Vision. Munich: Springer, 2018. 384–400.
[19]
Hou RB, Ma BP, Chang H, et al. Interaction-and-aggregation network for person re-identification. Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019. 9309–9318.
[20]
Zhong Z, Zheng L, Cao DL, et al. Re-ranking person re-identification with k-reciprocal encoding. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017. 3652–3661.