彩色融合图像是通过彩色数字图像处理的方法将可见光(微光)和红外图像融合获得, 广泛应用于车辆夜间辅助驾驶、森林火情监测、海上救援等领域[1,2], 彩色融合图像的质量在完成这些视觉任务中起着决定性作用. 融合图像包含人为赋予的假彩色信息, 图像色彩和谐性是影响图像质量的关键因素(融合图像中不同的颜色组合产生令人满意、愉快的效果, 则认为该图像颜色组合具有协调性), 然而现实应用中缺乏理想的参考图像, 更加大了融合图像质量评价的难度. 科学有效地评价彩色融合图像的颜色和谐性成为当前国内外彩色图像融合技术发展亟待解决的问题之一.
人类视觉系统(human visual system, HVS)是感知彩色(夜视)融合图像质量的最终决策者. 大规模规范的主观评价是衡量融合图像色彩和谐性最准确的方法. 但是, 主观评价实验耗时费力且非常昂贵. 因此, 自动预测彩色融合图像色彩质量的无参考客观评价方法成为当前研究的焦点.
近年来出现了大量的无参考图像质量评价算法(no-reference quality assessment, NR-IQA), 其中一个分支是以自然场景统计(natural scene statistics, NSS)理论为基础, 当图像质量下降时, 会出现图像统计特性的偏离. 基于NSS的评价算法由3个基本步骤组成: 提取图像特征、基于NSS理论建模和图像特征回归分析. 例如, ContourletIQA[3]将图像转化为CIELAB色彩空间, 然后再转化为图像梯度图, 最后在轮廓波(contourlet)域中提取不同尺度的自然场景统计特征, 完成图像质量预测. Zhang等[4]提出的算法包含图像色彩、结构和频率特征. Zhou等[5]通过多结构统计表示对比度失真图像的质量.
另一方面, 机器学习和深度学习广泛应用于NR-IQA算法. 深度神经网络可以将图像特征学习提取和回归分析结合, 并且形成一个统一的图像质量客观评价优化模型[6]. Zhang等[7]提出一种用于无参考图像质量评估的深度卷积神经网络双线性模型, 该模型适用于合成失真和真实失真的图像. Golestaneh等[8]又提出新的模型来解决NR-IQA任务, 通过卷积神经网络(CNN)捕捉图像局部结构信息和非局部图像特征, 对提取的特征使用变形器(Transformer)网络模型实现图像质量预测. 考虑到彩色图像的色彩影响因素, Gu等[9]将图像对比度、清晰度和亮度等特征通过机器学习回归模块得到图像质量预测分数. Ma等[10]保持原始图像的布局, 考虑图像成像原理、色彩和谐和焦距参数, 使用卷积神经网络(convolutional neural network, CNN)评估图像美学分数. Lu等[11]提出了一种基于隐式狄利克雷分布(latent Dirichlet allocation, LDA)的色彩和谐模型, 该模型通过色彩和谐之间的空间距离来约束LDA的训练. 之后, 他们使用深度神经网络获取原始图像色块之间的相关性, 将这些相关性和每个色块的特征嵌入所设计的条件随机场(conditional random field, CRF)[12], 从而测量整个图像的色彩和谐分数并完成图像美学评估任务.
此外, 生物视觉皮层的计算处理机制由于与HSV具有较强的相似性, 在图像质量评价领域受到越来越多的关注. Gu等[13]提出无参考图像质量评价需要以自由能人脑理论和基于HSV启示的图像特征为基础. Wu等[14]基于HSV的方向选择性机制提出一种方向选择视觉模式提取图像视觉内容. 后来, Wu等又提出了分层特征退化的无参考图像质量评价方法[15], 使用初级视觉皮层的定向选择计算机制, 提取图像局部低层视觉信息特征, 通过深度神经网络提取多层高级语义特征, 获得图像分层特征集, 最后建立了图像质量退化与对应分层特征集的相关性.
总的来说, 以往的很多NR-IQA算法研究是将原始图像转化为灰度图像, 图像不可避免地缺失了色彩信息. 与此同时, 这些方法未充分使用视网膜神经节细胞的对比度编码机制以及视网膜和视觉皮层的颜色编码机制. 因此, 为了解决这些问题, 本文提出基于视觉特征的红外与可见光(微光)波段彩色融合图像色彩和谐性客观评价模型, 称为双波段彩色融合图像色彩和谐性(dual-band color fusion image color harmony, DFICH)模型. 通过模拟视网膜细胞的颜色编码机制, 从原始融合图像中提取低层视觉对立色彩特征, 以不同半径计算图像每个像素周围的色彩信息波动(color information fluctuation, CIF), 并获得4个不同检测方向的色彩信息波动图(color information fluctuation map, CIFM), 然后从CIFM提取色彩波动特征以更加全面地描述图像色彩信息. 同时, 使用多尺度特征集成的深度残差神经网络提取图像高层视觉内容特征, 建立图像低层色彩信息与高层内容信息的紧密联系. 最后, 通过特征融合和支持向量回归(support vector regression, SVR)训练DFICH模型. 利用包含3种典型场景的彩色融合图像数据库[16]进行实验比较与分析, 结果表明, 所提出的方法与人眼主观感受评估更一致.
1 DFICH模型的基本原理本文提出了一种双波段彩色融合图像色彩和谐性(DFICH)模型, 如图1所示. 模型的总体思路为: 基于视网膜理论研究, 将彩色融合图像转换为
1.1 视觉对立色彩特征
图像色彩特征是生物视觉系统中所传达的低层次视觉特征, 是彩色融合图像色彩和谐性的主要影响因素. 根据视网膜研究[17], 人类视网膜中的简单细胞将图像色彩编码为色彩对立差异. Daniel等提出的色彩空间[18–20]包括3个对立颜色通道: 灰度对立通道、黄-蓝对立通道和红-绿对立通道, 它们与HVS的色彩对立是一致的. 同时, 色彩空间解除了红(R)、绿(G)、蓝(B)三通道之间的依赖关系, 便于单独处理图像的强度和图像的各个颜色通道. 因此, 从原始图像的 色彩空间提取视觉对立色彩特征并用于DFICH.
图2中描绘了某一组海天场景8幅融合图像[16], 并在图3中绘制了每一幅图像对应的黄-蓝对立通道(yellow-blue antagonism channel)和红-绿对立通道(red-green antagonism channel)的色彩分布. 根据图3的色彩分布图, 视觉对立颜色通道的图像色彩分布具有独特的统计属性. 因此, 在DFICH模型中考虑彩色融合图像色彩分布的变化.
色彩分布使用非对称广义高斯分布(asymmetric generalized Gaussian distribution, AGGD)[21]拟合:
$ f(x;\alpha , \beta _l^2, \beta _r^2) = \left\{ {\begin{array}{*{20}{c}} {\dfrac{\alpha }{{({\varphi _l} + {\varphi _r})\Gamma \left(\dfrac{1}{\alpha }\right)}}\exp ( - {{\left(\dfrac{{ - \left| x \right|}}{{{\varphi _l}}}\right)}^\alpha }), \;\;x < 0} \\ {\dfrac{\alpha }{{({\varphi _l} + {\varphi _r})\Gamma \left(\dfrac{1}{\alpha }\right)}}\exp \left( - {{\left(\dfrac{{ - \left| x \right|}}{{{\varphi _r}}}\right)}^\alpha }\right), \;\;x \leqslant 0} \end{array}} \right. $ | (1) |
其中,
$ {\varphi _l} = {\beta _l}\sqrt {\frac{{\Gamma ({1 \mathord{\left/ {\vphantom {1 \alpha }} \right. } \alpha })}}{{\Gamma ({3 \mathord{\left/ {\vphantom {3 \alpha }} \right. } \alpha })}}} $ | (2) |
$ {\varphi _r} = {\beta _r}\sqrt {\frac{{\Gamma ({1 \mathord{\left/ {\vphantom {1 \alpha }} \right. } \alpha })}}{{\Gamma ({3 \mathord{\left/ {\vphantom {3 \alpha }} \right. } \alpha })}}} $ | (3) |
$ \Gamma (\cdot)={\displaystyle {\int }_{0}^{\infty }{t}^{a-1}}{{\rm{e}}}^{-t}{\rm{d}}t,\;\; a > 0 $ | (4) |
其中,
正如图3所示, 不同融合算法生成的融合图像的色彩分布偏差是显而易见的. 对于色彩和谐性较高的融合图像, 色彩分布向外大大扩展, 而色彩和谐性较低的色彩分布明显变窄. 因此, 使用黄-蓝对立通道和红-绿对立通道的视觉对立色彩特征作为DFICH特征是合理的. 差法与背景减除法类似, 事实上它们是同一种运动目标检测算法的两种不同的变体, 它们的原理都是通过前景图像与背景图像做差运算, 从而检测出运动目标, 它们的优点是简单, 易于实现, 这个优点也使得它们具有较大的应用空间和较高的应用价值.
1.2 色彩信息波动特征视觉对立色彩特征是建立在色彩空间的基础之上. 在色彩空间转化过程中, 融合图像的像素色彩信息会有部分丢失. 因此, 在不同的检测方向上计算每个颜色通道中相邻像素之间的色彩关系, 通过结合红(R)、绿(G)、蓝(B)三通道中像素强度的波动提取每个像素的CIF. CIF计算流程图如图4所示. 如图4(a)所示, 包含中心像素和一定半径的相邻像素用紫色填充, 4个检测方向如图4(b)所示, 它们分别是: 0、
彩色融合图像其中一个像素在某一检测方向的CIF计算过程如图4(c)和图4(d)所示. 3个颜色通道的中心像素以及相邻像素的色彩向量表示为:
$ \begin{split} \mathrm{cos}\omega &=\frac{{\overrightarrow{O{O}_{l}}}\cdot{\overrightarrow{O{O}_{r}}}}{\left|{\overrightarrow{O{O}_{l}}}\right|\times \left|{\overrightarrow{O{O}_{r}}}\right|}\\ & =\frac{{D}_{l}^{\rm {R}}\times {D}_{r}^{\rm {R}}+{D}_{l}^{\rm {G}}\times {D}_{r}^{\rm {G}}+{D}_{l}^{\rm {B}}\times {D}_{r}^{\rm {B}}}{\sqrt{{D}_{l}^{{\rm {R}}{2}}+{D}_{l}^{{\rm {G}}{2}}+{D}_{l}^{{\rm {B}}{2}}}\times \sqrt{{D}_{r}^{{\rm {R}}{2}}+{D}_{r}^{{\rm {G}}{2}}+{D}_{r}^{{\rm {B}}{2}}}}\end{split} $ | (5) |
$ {{D}}_{{s}}^{{{color}}} = {{V}}_{{s}}^{{{color}}} - {{V}}_{{s}}^{{{color}}} $ | (6) |
其中,
对于大小为W×H的彩色融合图像I, 给定色彩像素(i, j), 那么CIF为:
$ {\mathit{Cifm}_k}(i, j) = \mathit{Cif}(I(i, j), k) $ | (7) |
其中,
图5中显示了数据库中的一组相同场景下的部分融合图像效果图. 图5(a)–(d)是城镇场景中4幅融合图像, 它们是该场景下人眼所标注的色彩和谐性较好的两幅融合图像和较差的两幅融合图像. 图5(a1)–(d1)、(a2)–(d2)、(a3)–(d3)、(a4)–(d4)分别对应不同检测方向上的CIFM. 从图5可以看出, 同一场景下的不同融合图像具有不同结构的CIFM, CIFM可有效地表示不同检测方向的融合图像的色彩波动信息. 因此, CIFM可用于提取融合图像色彩质量感知特征.
1.3 高级视觉内容特征色彩信息仅是图像低层视觉特征, 然而高层视觉特征在人类视觉感知中起着关键作用. 深度神经网络可以有效地表达高层视觉内容特征, 并以此进行视觉识别[22]. 目前, 残差网络(residual network, ResNet)是其中一个功能强大且更深层的深度神经网络学习架构, 常常用于提取图像深层语义特征[23]. 由于计算效率和复杂度, 本文选择ResNet50[23]的输出作为多尺度高层视觉内容特征, 网络框架如图6所示. 为了减少数据库大小对网络训练的影响, 本文使用的是经过ImageNet数据集[24]初始化的ResNet50.
1.4 DFICH模型训练和质量预测
为了综合衡量彩色融合图像色彩和谐性, 首先, 将第1.1、1.2、1.3节中所提取的特征归一化以进行融合.
$ {\tilde f_i}(j) = \frac{{{f_i}(j)}}{{\sqrt {\displaystyle\sum\nolimits_n^{} {{{({f_i}(n))}^2}} } }} $ | (8) |
其中,
$ {\mathit DFICH}\_model = {{SVR}}\_train({F^{\rm train}}, {Q^{\rm train}}) $ | (9) |
其中,
$ {q^{\rm test}} = {\mathit{SVR}}\_predict({F^{\rm test}}, {\mathit{DFICH}}\_model) $ | (10) |
本文所涉及的全部实验环境为: Windows server 2016, CPU Intel(R) Xeon(R) W-2145 CPU @ 3.70 GHz, 64 GB RAM, GPU为NVIDIA GeForce RTX 4000, Python 3.7, PyTorch 11.0, PyCharm 2022.
2.1 实验数据库与实验结果分析本文是在Jin等[16]研究基础上对彩色融合图像进行色彩和谐性客观评价. 实验数据库包括海天、植物和城镇等场景, 共256 幅彩色融合图像, 每幅图像的像素均为320×240, 并由52人对图像进行色彩和谐性标注. 这些彩色融合图像是选取了32 组不同场景的红外图像与可见光(微光)图像, 对同一场景下的红外图像和可见光(微光)图像使用不同融合算法生成的, 其中包括TNO (the Netherlands organization for applied science research)、MIT (Massachusetts institute of technology)、LFinYUV (linear fusion algorithm in YUV space)、OFinYUV (fusion algorithm based on opponent vision property in YUV space)、SP (steerable pyramid color fusion algorithm)及GTinYUV (global color transfer algorithm in YUV space)、MRTinRGB (color transfer algorithm based on multi-resolution in RGB space)和MRTinYUV (color transfer algorithm based on multi-resolution in YUV space, MRTinYUV), 8种融合方法是目前实际使用的主要方法, 选择的原则为算法代码的公开和处理速度达到准实时以上. 图7给出典型场景植物的1组融合图像, 每组包含1幅可见光图像和1幅红外图像以及8幅彩色融合图像.
由于数据库包含的融合图像较少, 在具体实验训练中, 随机在图像数据库选择80%的图像训练, 剩余20%的图像用于测试, 为了保证训练集和测试集的融合图像内容没有重复, 将数据库按照图像的场景进行分类, 多次重复实验, 并记录每一次实验图像质量预测值和人眼主观分数之间的斯皮尔曼秩相关系数(Spearman rank order correlation coefficient, SROCC)、皮尔逊线性相关系数 (Pearson linear correlation coefficient, PLCC)和均方根误差 (root mean square error, RMSE). 图8给出模型最终的测试效果图. 从图8中可以看出, 模型预测值与人眼评价结果拟合较好, 本文模型可以较好地反映人眼主观感知.
2.2 消融实验和性能比较图1模型结构的各个组成部分对图像质量预测会产生不同的影响, 进行消融实验验证各自的不同影响程度, 并记录本文模型预测的图像色彩和谐性分数和人眼主观分数的SROCC、PLCC和RMSE的均值. 如表1所示, 可以看出, 将视网膜机制、色彩信息波动和深度神经网络相结合可以获得理想的图像质量评价效果. 以往深度神经网络方法直接通过原始融合图像获取图像质量过程中会丢失很多图像信息, 比如色彩信息, 这使得模型训练无法取得最好的效果, 从而得到的图像质量分数会产生较大的偏差. 因此, 引入视网膜和视觉皮层的颜色编码机制或者融合图像色彩信息波动所获得的结果要明显优于仅使用深度神经网络的方法, 而相比于单独引入色彩信息, 将二者结合并且同时引入模型, 质量预测结果与人眼感受更加一致.
将本文提出的DFICH模型与现有的8种图像质量评价方法进行性能对比实验, 其中包括NRSL[25], NCMQA[5], MetaIQA[26], HyperIQA[27], DBCNN[7], TReS[8], MANIQA[28]和 VCRNet[29], 除了比较各个模型图像质量预测值和人眼主观分数之间的SROCC, PLCC和RMSE, 还对模型预测时间性能(平均时间mean time, MT)作了分析, 具体结果如表2所示.
从表2中可以看出, 本文方法与其他8种方法相比, 在预测时间上处于中等水平, 没有较明显的优势, 这是因为实验室过程中对输入图像的每个通道单独进行计算, 耗费了大量时间. 但是, 本文方法评价融合图像质量更准确, 质量预测值与人眼主观分数之间的SROCC可以达到0.9以上, 这表明了视觉特征更能准确地描述融合图像质量, 评价结果与人眼感受具有更高的一致性.
此外, 将模型在合成失真和真实失真数据集上进行对比实验. 和其他方法相比, 本文方法在TID2013、CSIQ、LIVE数据集上有一定优势, 结果如表3所示. 在TID2013和CSIQ数据集上, 本文方法有较大的优势. 虽然与文献[7]方法相比, 本文方法在LIVE数据集上还存在上升空间, 但整体上本文的方法是优于其他方法的.
3 结论与展望
本文提出的基于多视觉特征的双波段彩色融合图像色彩和谐性模型解决了现有方法中未充分利用视网膜和视觉皮层的颜色编码机制所带来的质量预测不准确的问题, 同时避免了在质量预测过程中缺失图像色彩信息的情况. 实验结果表明, 对于包含3种典型场景的彩色(夜视)融合图像数据库, 该方法的准确性和实用性较高, 与人眼主观感受评估更为一致. 由于该方法对融合图像每个通道进行处理, 运算量较大且耗时较长, 未来研究可以进一步探讨如何提高该模型的时间性能和推广场景应用范围. 同时如何进一步提高模型在自然图像领域的性能, 将是今后重点研究的内容之一.
[1] |
Luo YY, He KJ, Xu D, et al. Infrared and visible image fusion based on visibility enhancement and hybrid multiscale decomposition. Optik, 2022, 258: 168914. DOI:10.1016/j.ijleo.2022.168914 |
[2] |
Ma JY, Tang LF, Fan F, et al. SwinFusion: Cross-domain long-range learning for general image fusion via Swin Transformer. IEEE/CAA Journal of Automatica Sinica, 2022, 9(7): 1200-1217. DOI:10.1109/JAS.2022.105686 |
[3] |
Li CF, Guan TX, Zheng YH, et al. Blind image quality assessment in the contourlet domain. Signal Processing: Image Communication, 2021, 91: 116064. DOI:10.1016/j.image.2020.116064 |
[4] |
Zhang L, Zhang L, Bovik AC. A feature-enriched completely blind image quality evaluator. IEEE Transactions on Image Processing, 2015, 24(8): 2579-2591. DOI:10.1109/TIP.2015.2426416 |
[5] |
Zhou ZH, Lu W, Yang JC, et al. No-reference image quality assessment based on neighborhood co-occurrence matrix. Signal Processing: Image Communication, 2020, 81: 115680. DOI:10.1016/j.image.2019.115680 |
[6] |
Kang L, Ye P, Li Y, et al. Convolutional neural networks for no-reference image quality assessment. Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014. 1733–1740.
|
[7] |
Zhang WX, Ma KD, Yan J, et al. Blind image quality assessment using a deep bilinear convolutional neural network. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(1): 36-47. DOI:10.1109/TCSVT.2018.2886771 |
[8] |
Golestaneh SA, Dadsetan S, Kitani KM. No-reference image quality assessment via Transformers, relative ranking, and self-consistency. Proceedings of the 2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV). Waikoloa: IEEE, 2022. 3989–3999.
|
[9] |
Gu K, Tao DC, Qiao JF, et al. Learning a no-reference quality assessment model of enhanced images with big data. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(4): 1301-1313. DOI:10.1109/TNNLS.2017.2649101 |
[10] |
Ma S, Fan YY, Chen CW. Pose maker: A pose recommendation system for person in the landscape photographing. Proceedings of the 22nd ACM International Conference on Multimedia. Orlando: ACM, 2014. 1053–1056.
|
[11] |
Lu P, Peng XJ, Yuan CX, et al. Image color harmony modeling through neighbored co-occurrence colors. Neurocomputing, 2016, 201: 82-91. DOI:10.1016/j.neucom.2016.03.035 |
[12] |
Lu P, Yu JB, Peng XJ. Deep conditional color harmony model for image aesthetic assessment. Proceedings of the 24th International Conference on Pattern Recognition (ICPR). Beijing: IEEE, 2018. 2845–2850.
|
[13] |
Gu K, Zhai GT, Yang XK, et al. Using free energy principle for blind image quality assessment. IEEE Transactions on Multimedia, 2015, 17(1): 50-63. DOI:10.1109/TMM.2014.2373812 |
[14] |
Wu JJ, Lin WS, Shi GM, et al. Orientation selectivity based visual pattern for reduced-reference image quality assessment. Information Sciences, 2016, 351: 18-29. DOI:10.1016/j.ins.2016.02.043 |
[15] |
Wu JJ, Zeng JC, Dong WS, et al. Blind image quality assessment with hierarchy: Degradation from local structure to deep semantics. Journal of Visual Communication and Image Representation, 2019, 58: 353-362. DOI:10.1016/j.jvcir.2018.12.005 |
[16] |
Jin WQ, Jia XT, Gao SS, et al. Subjective evaluation of quality for color fusion images. Optics and Precision Engineering, 2015, 23(12): 3465-3471. DOI:10.3788/OPE.20152312.3465 |
[17] |
Kolb H. How the retina works. American Scientist, 2003, 91(1): 28-35. DOI:10.1511/2003.11.28 |
[18] |
Ruderman DL, Cronin TW, Chiao CC. Statistics of cone responses to natural images: Implications for visual coding. Journal of the Optical Society of America A, 1998, 15(8): 2036-2045. DOI:10.1364/JOSAA.15.002036 |
[19] |
Pridmore RW. A new transformation of cone responses to opponent color responses. Attention, Perception, & Psychophysics, 2021, 83(4): 1797–1803.
|
[20] |
Reinhard E, Adhikhmin M, Gooch B, et al. Color transfer between images. IEEE Computer Graphics and Applications, 2001, 21(5): 34-41. |
[21] |
Lasmar NE, Stitou Y, Berthoumieu Y. Multiscale skewed heavy tailed model for texture analysis. Proceedings of the 16th IEEE International Conference on Image Processing. Cairo: IEEE, 2009. 2281–2284.
|
[22] |
LeCun Y, Bengio Y, Hinton G. Deep learning. Nature, 2015, 521(7553): 436-444. DOI:10.1038/nature14539 |
[23] |
He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition. Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016. 770–778.
|
[24] |
Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database. Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami: IEEE, 2009. 248–255.
|
[25] |
Li QH, Lin WS, Xu JT, et al. Blind image quality assessment using statistical structural and luminance features. IEEE Transactions on Multimedia, 2016, 18(12): 2457-2469. DOI:10.1109/TMM.2016.2601028 |
[26] |
Zhu HC, Li LD, Wu JJ, et al. MetaIQA: Deep meta-learning for no-reference image quality assessment. Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020. 14131–14140.
|
[27] |
Su SL, Yan QS, Zhu Y, et al. Blindly assess image quality in the wild guided by a self-adaptive hyper network. Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020. 3664–3673.
|
[28] |
Yang SD, Wu TH, Shi SW, et al. MANIQA: Multi-dimension attention network for no-reference image quality assessment. Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). New Orleans: IEEE, 2022. 1190–1199.
|
[29] |
Pan ZQ, Yuan F, Lei JJ, et al. VCRNet: Visual compensation restoration network for no-reference image quality assessment. IEEE Transactions on Image Processing, 2022, 31: 1613-1627. DOI:10.1109/TIP.2022.3144892 |