行人重识别又称行人再识别[1,2]. 当人脸识别失效时, 行人重识别就成为了一个非常重要的替代技术. 简单而言就是给定一个监控行人的图像, 从资料库中检索该行人的图像[3]. 但是由于不同照相机的参数、位置不同, 行人的姿态变化、光照、遮挡等诸多因素, 行人重识别的研究仍面临着许多的挑战.
随着深度学习的发展, 卷积神经网络已经被证实在许多计算机视觉任务中具有十分出众的表现. 卷积神经网络模型在行人重识别任务中的潜力也逐渐被发掘出来. 相较于传统的行人重识别方法, 基于深度卷积神经网络的行人重识别方法, 对于个体图片提取的特征具有更好的描述能力以及更强的鲁棒性. 当今基于深度学习的行人重识别方法主要可以分为相似度学习以及特征表示两大类, 第一类主要是在端到端的深度神经网络中, 通过不同的验证损失学习特征, 第二类则是将不同ID的图片放入到深度神经网络中, 通过ID损失学习生成一个分类器. 目前, 绝大部分的行人重识别方法是基于监督式学习方法. Li等[4]利用空洞卷积进行多尺度特征提取, 并融合局部特征与全局特征. Wojke等[5]对传统Softmax分类器简单再参数化, 优化了余弦相似度, 进而实现对特征空间的学习. 然而基于监督学习的行人重识别需要大量标注的训练数据, 并且这些数据要求来自不同摄像头以及不同的视角. 当数据集不断扩大, 大量的人工标注数据需要耗费大量的人力和时间, 这使得监督式行人重识别方法的实际应用价值大大降低. 当摄像头数量大幅增加时, 大量人工标注的数据会对产生很多负面影响, 从而影响了行人重识别的应用. 为了解决上述的困难, 研究人员开始逐渐尝试利用未标注的数据, 越来越多的半监督式和无监督式行人重识别方法开始出现. Huang等人[6]提出了一种将正则化标签赋予生成数据, 并将其作为训练样本补充数据的方法. Kipf等人[7]提出了通过直接利用神经网络模型进行图形结构编码, 在一个有监督目标上, 为所有带有标注的节点进行训练. Liu等人[8]提出了一种半监督式耦合字典学习方法, 主要是在训练阶段, 从已标注和未标注的图片中, 联合学习两个耦合字典. 半监督学习方法的优势十分明显[9–11], 能够充分利用有限的数据, 将标注数据与未标注数据的优势相结合, 从而更好的解决行人重识别任务.
在实际应用中, 为大量跨镜头的数据标注需要花费大量的精力. 在本文中, 为每个行人ID仅提供一个样本, 这样的设置在解决实际问题时更具有意义. 为了能够充分利用有限的标注数据, 训练过程中, 将训练集划分为3个部分: 有标签数据、伪标签数据、映射标签数据. 特别地, 选调伪标注数据的规模是渐进式不断扩大, 利用两个同时训练的卷积神经网络对于伪标签进行又一轮筛选, 再依据不相似代价从这些伪标注数据筛选出Nk个最优项, 并加入到下一轮的ID分类训练中去. 通过这样的方式, 可以进一步提升伪标签精度, 从而能够更好地优化模型. 下面将具体介绍本文所提出的行人重识别方法.
2 半监督式单样本深度行人重识别图1为本文提出方法的总体框架, 通过多种数据的联合学习、多模型联合训练和不断扩大伪标签数据规模的渐进式学习方式来逐步优化行人重识别模型, 下面将具体介绍该方法.
2.1 联合学习方法
首先来介绍模型的更新步骤, 在第k次迭代时, 使用有标签数据
$U = \left\{ {{x_{{n_l} + 1}},{x_{{n_l} + 2}}, \cdots ,{x_{{n_l} + u}}} \right\} = {P^k} + {I^k}$ |
利用标注数据和选调出的伪标签数据进行ID分类学习. 但对于映射标签数据而言, 被赋予了对应索引值的映射标签, 显然将映射标签数据加入到ID分类训练中会损害模型. 为了充分利用这些映射标签数据, 我们采纳文献[12]提出的差异性损失, 利用索引标注数据来优化卷积神经网络模型:
${l_e}\left( {{\rm{V}};\tilde \phi \left( {{\bf{\theta }};{x_i}} \right)} \right) = - {\log}\dfrac{{{\exp}\left( {\frac{{v_i^{\rm T}\tilde \phi \left( {{\bf{\theta }};{x_i}} \right)}}{\tau }} \right)}}{{\displaystyle \sum \nolimits_{j = 1}^{\left| {{M^t}} \right|} {\exp}\left( {\dfrac{{v_i^{\rm T}\tilde \phi \left( {{\bf{\theta }};{x_i}} \right)}}{\tau }} \right)}}$ |
其中, V作为一个查询列表存储了所有的映射标注数据的特征xi, 通过这样的设置, 避免了在每次迭代时都要重复从所有的数据中提取特征的复杂运算. τ控制样本概率分布. 在前向传播过程中, 计算xi与其他所有数据的余弦相似度, 在反向传播过程中, 对vi进行更新:
${{{v}}_i} \leftarrow \frac{1}{2}({{{v}}_i} + \tilde \phi \left( {{\bf{\theta }};{x_i}} \right)$ |
并通过L2归一化, 将其转化为单位向量后传入V中, 以实现对V中第i列元素的更新. 通过这种差异性损失, 模型能够学习区分不同输入图片而不是学习分类ID, 从而使得学习到的表征会获得更多关于输入ID的信息. 在此过程中, 尽管这些样本没有任何的标注, 但是模型可以获取更多的样本, 并且这些样本可以通过学习不同行人图片间的差异性来为模型提供微弱的监督信息. 对于有正确标签ID的数据集L, 依照[10]方法来训练re-id模型, 以下是目标方程:
$\mathop {\min }\limits_{{\bf{\theta }},\omega } \mathop \sum \limits_{i = 1}^{{n_l}} {l_{CE}}\left( {f\left( {\omega ;\phi \left( {{\bf{\theta }};{x_i}} \right)} \right),{y_i}} \right)$ |
其中,
$\mathop {\min }\limits_{{{\theta}} ,\omega } \mathop \sum \limits_{i = {n_l} + 1}^{{n_l} + {n_u}} {s_i}{l_{CE}}\left( {f\left( {\omega ;\phi \left( {{{\theta}} ;{x_i}} \right)} \right),{y_i}} \right)$ |
对于伪标签数据的使用, 这里的方法与有标签数的方法基本类似, 不同的是在这里加入一个判别器
$\begin{aligned} &\mathop {\min }\limits_{{{\theta}} ,\omega } c\mathop \sum \limits_{i = 1}^{{n_l}} {s_i}{l_{CE}}\left( {f\left( {\omega ;\phi \left( {{{\theta}} ;{x_i}} \right)} \right),{y_i}} \right)\\ & + c\mathop \sum \limits_{i = {n_l} + 1}^{{n_l} + {n_u}} s_i^{k - 1}{l_{CE}}\left( {f\left( {\omega ;\phi \left( {{{\theta}} ;{x_i}} \right)} \right),{y_i}} \right)\\ & + \left( {1 - c} \right)\mathop \sum \limits_{i = {n_l} + 1}^{{n_l} + {n_u}} \left( {1 - s_i^{k - 1}} \right){l_e}(f\left( {V;\tilde \phi \left( {{{\theta}} ;{x_i}} \right)} \right) \end{aligned}$ |
k表示第k次迭代, c为调整交叉熵损失与差异性损失所占权重的参数.
2.2 抽样策略与标签估计在解决单样本类型的任务时, 分类器容易对单样本数据过拟合, 从而进一步影响了分类器对于ID分类的鲁棒性. 为了解决过拟合的问题, 着眼于提高选调伪标签精度的方式, 从获取伪标签的数据中挑选出更优的伪标签数据, 将它们加入到ID分类的训练中, 因此, 选择一个合适的抽样策略显得十分关键.
本方法采用特征空间上的距离作为衡量伪标签的方式. 对于无标签数据的标签评估, 使用最邻近分类器, 最邻近分类器会在特征空间上为每一个无标签数据查找到与其距离最近的有标签数据, 将查找到的有标签数据的标签作为伪标签赋给无标签. 特别地, 在特征空间上的距离会作为标签评估的置信度, 从伪标签数据中进行选调. 为了充分获得并利用这些数据, 在每一轮的迭代中, 从每个模型中选调的伪标签数据Nk的规模是不断扩大. 具体的, 通过以下方法为无标签数据进行标签估计:
$\left\{\begin{aligned} & d\left( {{\bf{\theta }};{x_i}} \right) = \left| {\left| {\phi \left( {{\bf{\theta }};{x_i}} \right) - \phi \left( {{\bf{\theta }};x'} \right)} \right|} \right|\\ &x',y' = {\rm{arg}}\mathop {\min }\limits_{\left( {{x_l},{y_l}} \right) \in L} \left| {\left| {\phi \left( {{\bf{\theta }};{x_i}} \right) - \phi \left( {{\bf{\theta }};x_l'} \right)} \right|} \right|\\ &{y_i} = y' \end{aligned}\right.$ |
${P^t} = P_{{\phi _1}}^t \cap P_{{\phi _2}}^t$ |
通过上面提出抽样方法, 充分保证了所选调的伪标签数据的可靠性. 在最初阶段, 模型训练仅仅使用很小一部分的伪标签数据样本, 随着迭代的进行, 再逐渐扩充伪标签样本的比例. 特别地,在第一次迭代开始时, 所有的无标签数据均没有伪标签, 模型的优化通过(1)在有标签数据上, 进行ID分类训练; (2)对所有的无标签数据, 通过差异性损失来进行无监督训练. 在之后的迭代过程中, 逐渐增加选调伪标签数据的规模,
算法1. 模型优化算法
(1) 初始化两个不同的CNN模型, 抽调伪标签数据
(2) 将两个不同的CNN模型同时进行训练, 在迭代进行过程中, 通过3组数据优化模型参数;
(3) 对无标签数据进行伪标签评估;
(4) 通过两个模型, 选取较优伪标签数据;
(5) 更新抽样规模;
(6) 评估模型阶段, 通过在验证集上的表现, 挑选出两个不同的最优模型;
(7) 更新下次迭代使用的伪标签数据和映射标签数据.
3 实验与分析 3.1 实验数据与评价标准本文所使用的数据集, 是当前数据量较大的行人重识别数据集: MARS[13]. 该数据集总共包含了1261个行人ID, 分别在6个摄像头下进行收集. 其中训练集总计包含了625个行人ID, 8298小段行人轨迹, 共509 914张图片. 测试集包含636个行人ID, 12 180小段行人轨迹. MARS数据集是提供序列信息的大规模行人重识别数据集.
当前对行人重识别识别率的标准主要有以下两种: (a) rank-n: 给定查询集中的一张图片, 计算它与图库中所有图片的相似度, 从高到低排列, 如果前n项中有相同的行人, 则识别正确. 在这样的评价标准中, rank-1的准确率最为重要, rank-5与rank-10最为辅助参考(b) mAP: 强调的是查全率与查准率之间的平衡, 也是先对相似度进行排序, 然后从高到低统计从第一项到最后一项相同行人图片间正确识别的比率.
需要说明的是, 同一摄像头连续拍摄的两幅图像中, 同一行人往往是比较相似的, 评价标准中排除了所有这些情况, 只统计一个摄像头中的行人在其他摄像头拍摄的图像中查询到的结果, 一定程度抑制了数据本身不平衡可能对结果造成的影响.
3.2 实验环境及参数配置本算法使用深度学习框架Pytorch实现, 在配有1080tiGPU上进行实验模型训练和测试评估. 对于模型选择, 使用InceptionV3[14]和在Imagenet上预训练过的Resnet50[15]两个模型.
3.3 实验比较对于不同的选调伪标签扩展因数α会影响伪标签数据的可靠性, 因此, 在实验进行的过程中, 使用不同的α, 以充分了解其对于模型的影响.
从表1中可以看到选择一个较小的α使得模型性能更优, 由于扩充因数α决定了标签更新速度, 因此选择较小的α会增加时间代价.
为了验证方法的有效性, 使用Mars数据集, 分别与当前基于监督式、半监督式的行人重识别方法进行比较.
从表2中可以看出: 通过本文提出的行人重识别方法, 在单样本设置下, 模型rank-1=65.3, mAP=45.6这是一个不逊于基于监督学习方法的效果. 与当前先进的行人重识别方法相比较, 本文提出的方法更少地依赖标签数据, 进一步提升行人重识别的现实应用价值. 当然, 单样本的设置会使得模型优化远不及多样本, 且当模型的样本输入从单样本输入设置为多样本输入时, 总体的识别率会得到显著提升, 比如: 当标注率提升为40%, rank-1=83.8, mAP=64.9. 实验结果表明本文提出的方法的有效性.
4 结论
本文提出的方法中, 对于每个ID训练仅只提供一个有正确标签的样本, 在这样的设置下, 模型的学习会受到限制. 为了应对单样本设置下行人重识别任务, 设计了一种多个卷积神经网络联合训练的方法. 对于每个卷积神经网络, 并且采用了渐进式训练框架, 使用标签数据、伪标签数据、映射标签数据联合训练的方式. 在标签评估阶段, 利用两个模型联合选调出较为精确的伪标签数据, 对伪标签数据集进行更新. 虽然我们的方法呈现出了一个可以与多样本设置相媲美的效果, 但是, 解决单样本设置下的行人重识别任务还面临诸多挑战, 未来仍有很多工作有待去解决.
[1] |
Zheng WS, Gong SG, Xiang T. Person re-identification by probabilistic relative distance comparison. IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI, USA. 2011. 649–656.
|
[2] |
Chen YC, Zheng WS, Lai JH, et al. An asymmetric distance model for cross-view feature mapping in person reidentification. IEEE Transactions on Circuits and Systems for Video Technology, 2017, 27(8): 1661-1675. DOI:10.1109/TCSVT.2016.2515309 |
[3] |
Gong S, Cristani M, Yan S. Person re-identification. Computer Vision and Pattern Recognition, 2014, 42(7): 301-303. |
[4] |
Li DW, Chen XT, Zhang Z, et al. Learning deep context-aware features over body and latent parts for person re-identification. The IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA. 2017. 384–393.
|
[5] |
Wojke N, Bewley A. Deep cosine metric learning for person re-identification. IEEE Winter Conference on Applications of Computer Vision. Lake Tahoe, NV, USA. 2018. 748–756.
|
[6] |
Huang Y, Xu JS, Wu Q, et al. Multi-pseudo regularized label for generated data in person re-identification. IEEE Transactions on Image Processing, 2019, 28(3): 1391-1403. DOI:10.1109/TIP.2018.2874715 |
[7] |
Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks. arXiv: 1609.02907, 2017.
|
[8] |
Liu X, Song ML, Tao DC, et al. Semi-supervised coupled dictionary learning for person re-identification. IEEE Conference on Computer Vision and Pattern Recognition, 2014, 3550-3557. |
[9] |
Ding GD, Zhang SS, Khan S, et al. Center based pseudo-labeling for semi-supervised person re-identification. IEEE International Conference on Multimedia & Expo Workshops. San Diego, CA, USA. 2018. 1–6.
|
[10] |
Li JW, Ma AJ, Yuen PC. Semi-supervised region metric learning for person re-identification. International Journal of Computer Vision, 2018, 126(8): 855-874. DOI:10.1007/s11263-018-1075-5 |
[11] |
Chen F, Chai JH, Ren DH, et al. Semi-supervised distance metric learning for person re-identification. 2017 IEEE/ACIS 16th International Conference on Computer and Information Science. Wuhan, China. 2017. 733–738.
|
[12] |
Wu Y, Li YT, Dong XY, et al. Exploit the unknown gradually: One-shot video-based person re-identification by stepwise learning. IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. 2018. 5177–5186.
|
[13] |
Zheng L, Bie Z, Sun YF, et al. MARS: A video benchmark for large-scale person re-identification. European Conference on Computer Vision. Cham, 2016, 868-884. |
[14] |
Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision. IEEE Conference on Computer Vision and Pattern Recognition, 2016, 2818-2826. |
[15] |
He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. 2016. 770–778.
|
[16] |
Ye M, Ma AJ, Zheng L, et al. Dynamic label graph matching for unsupervised video re-identification. 2017 IEEE International Conference on Computer Vision. Venice, Italy. 2017. 5142–5150.
|