摘要:现有的异常检测方法大多关注算法的效率和精确度等, 而忽视了异常对象的可解释性. 反事实解释方法是当前可解释机器学习的研究热点之一, 旨在通过对研究对象的特征进行扰动, 进而生成反事实示例以解释模型的决策结果. 在实际应用中, 特征之间可能存在某种因果关系. 然而, 现有基于反事实的可解释方法大多关注如何生成更多样的反事实示例, 却忽视了特征之间的因果关系, 导致可能产生不合理的反事实解释. 为此, 提出了一种考虑因果约束的异常对象反事实解释算法IARC. 该方法在生成反事实解释时, 通过将特征间的因果性纳入目标函数来衡量该次扰动是否可行, 并通过改进后的遗传算法进行求解, 从而生成合理的反事实解释. 此外, 提出了一种新的度量指标, 用于衡量所生成反事实解释的矛盾程度. 同多个先进反事实解释方法在多个真实数据集上进行了对比实验和详细的案例可解释分析. 实验结果表明, 所提出的方法能够为异常对象生成具有强合理性的反事实解释.