点击率(click-through rate, CTR)[1]是指在当前显示次数下内容被点击的占比, 旨在估计用户点击项目的概率. CTR预测在广告领域和推荐系统中得到广泛应用, 其核心目标是准确预测用户点击行为, 以优化广告投放和内容推荐策略. 在众多应用领域中, CTR预测的价值显著. 在广告优化和投放方面, 广告主可以根据CTR预测结果调整广告创意、定向和投放时间, 从而提高广告的点击率和转化率. 广告排名和展示上, CTR预测决定了广告在搜索结果页面、网站页面或移动应用中的排名顺序, 优先展示可能带来更高点击率的广告. 个性化推荐方面, CTR预测根据用户历史点击行为, 为用户提供个性化的广告推荐, 提升用户体验等. 因此, 准确的CTR预测不仅能提升用户体验, 还能带来巨大的商业价值, 近年来备受关注. 特征交互建模在近些年来取得了巨大进展. 根据最新发展情况, 它们被简单地分为两种CTR预测方法: (1)用于捕获低阶特征交互方法, 如因子分解机(factorization machine, FM)[2]的方法; (2)用于捕获高阶特征交互的方法, 如广度与深度神经模型(Wide&Deep)[3]、深度因子分解机模型(DeepFM)[4]和自适应交互模型(AutoInt)[5]等.
Rendle[2]提出的FM模型通过内积建模二阶交叉特征, 而NFM[6]模型使用双线性交互层通过哈达玛积进行特征交叉, 并结合DNN[7]网络捕捉高阶非线性特征交叉. 深度压缩交互网络(xDeepFM)[8]模型通过显式和隐式组合的方式在特征字段上生成特征交互. 基于卷积神经网络的点击率预估模型增强了特征空间中的学习交互, 并与其他模型进行融合[9], 具备自动识别能力.
尽管现有模型结构日趋精细, 性能也有所提升, 但仍存在一个遗留问题: 大多数模型仅关注每个特征的固定表示, 忽视了在不同上下文中每个特征的不同重要性. 例如, 在{男性, 网吧, 打游戏, 早上}和{男性, 网吧, 打游戏, 晚上}这两种情况下, 对用户进行预测时, 应考虑某些特征在不同情境下的影响差异. 因此, 解决当前问题需要增加模型对特征细化的灵活性, 更好地捕捉每个特征在不同上下文中的不同重要性.
自注意力机制[10]是CTR预测中常用且理想的方法之一, 它通过学习特征之间的交叉特征重要性权重得分来捕捉交叉特征关系. 然而, 自注意力机制仅通过对权重归一化来捕捉同一实例中特征的相对重要性, 忽略了不同实例之间特征重要性的差异. 例如, 在{男性, 网吧, 打游戏, 早上}和{男性, 网吧, 打游戏, 晚上}的情况下, 自注意力机制只能学习到“男性”特征相似的表示, 而相较于特征“早上”和“晚上”与“网吧”和“打游戏”相比, “男性”的权重得分可能会非常小. 然而, 在这种情况下, “男性”用户的行为仍然可能在早上和晚上发生显著变化. 因此, 一个理想的特征细化卷积神经网络模块应该能够识别重要的跨实例上下文信息, 并在不同的上下文中学习到显著不同的表示.
为了进一步研究上述问题[2,10–12], 本研究设计了一种名为FRCNN-F的CTR预测模型, 这项研究创新性地将场矩阵分解机和卷积神经网络相结合, 不仅旨在学习每个特征的固定表示, 还为了进一步学习在不同上下文的重要性, 该模型充分利用了卷积神经网络在重新生成特征方面的优势, 以增强模型对特征重要性的选择能力. 同时, 引入了场矩阵交互项模块, 进一步提升了模型对特征的提取能力. 通过这种综合方法, 达到了提升CTR模型预测能力的目的, 从而在广告投放、排名和展示等应用领域实现更精准的预测. 如图1所示, FRCNN-F由两个重要部分组成: (1)特征细化卷积神经网络(feature refinement convolutional neural network, FRCNN)模块: 该模块结合了卷积神经网络和自注意力机制. 通过将局部特征重新生成新特征, 并与上下文提取结果做哈达玛积, 从而能够更好地实现上下文感知表征学习, 以捕捉重要性特征的重组. (2)场矩阵分解机(field-matrixed factorization machine, FmFM)交互项模块: 该模块引入了共享嵌入矩阵, 以支持不同特征采用不同的嵌入向量维度. 通过将FmFM的交互项作为单独的模块, 并利用共享嵌入矩阵来学习不同特征场之间的重要信息, 从而增加了数据输入的灵活性. 由于FmFM交互项具有矩阵的自由度和可训练性, 相比其他因子分解机, 它具有更强的预测能力[12]. 如图1所示, FRCNN-F与现有CTR预测方法正交, 因此可以方便地应用于许多现有方法中, 以提高其性能.
本文设计FRCNN-F模型时, 主要受到两个方面的启发. 一方面, 受场感知因子机(FFM)和场感知线性特征交互机(FwFM)的启发, 通过嵌入向量进行二阶交叉, 以捕捉特征之间的低阶交互信息. 为了充分利用特征之间的交互关系, 引入了场和特征权重的概念, 以建模特征之间的差异性和重要性. 然而, 这种方法需要仔细设计和选择场, 增加了特征工程的复杂性, 并且处理稀疏特征会增加模型的计算和内存开销. 因此, 在本文中, 尝试将FmFM的交互项单独作为一个模块融合到特征细化卷积神经网络模块中, 并通过后续实验验证了该设计的有效性. 在去除FmFM后, FRCNN-F的性能明显低于原始模型.
另一方面, 受到Wide&Deep和DeepFM的双塔结构的启发, 本文设计了一种“深度模型+浅层模型+浅层模型”的结构. 该结构将嵌入层的Embedding向量分别输入到两个不同的子模型中. 一个子模型在FRCNN中利用局部模式重新组合并生成新特征, 进行高阶特征交叉探索; 另一个子模型通过FmFM的交叉项进行低阶特征交叉探索. 最后, 将这两个结果拼接到一起作为FM的输入, 再进行低阶特征的探索, 并提供给最终的CTR预测. 通过后续实验, 本文还对各种不同的融合结构进行了对比实验, 验证了该设计的有效性. 接下来, 在本文方法中将按照由底向上的顺序介绍FRCNN-F模型的各组成部分.
1 相关工作许多CTR预测方法通过特征交互建模进行特征表示学习, 取得了巨大成功. CTR预测方法可分为两类: 旨在捕获低阶特征交互方法[2]和旨在捕获高阶特征交互方法[3–10]. FM[2]是一种广泛使用的传统CTR预测方法, 已有很多基于它的相关工作[2,13–26].
然而, 这些方法无法捕捉高阶特征交互. 为解决此问题, 提出了捕获高阶特征的多种方法. Wide&Deep[3]联合训练广度线性单元和多层感知(MLP), 结合记忆和泛化的优势. DeepFM[4]将Wide&Deep[3]的大部分替换为FM, 减轻特征工程中的人工特征工程. 在DeepFM的基础上, xDeepFM[8]设计了一种新的压缩交互网络(CIN), 明确建模高阶特征交互. AutoInt[5]使用堆叠的多头自注意层对特征交互进行建模. 特征交互图神经网络(Fi-GNN)[21]使用图结构来对特征交互进行建模. FmFM[12]使用共享嵌入矩阵来对特征交互进行建模. 除了对特征交互建模外, 交叉网络(XcrossNet)[27]和自动离散化(AutoDis)[28]模型还设计了各种结构来学习连续型特征的特征嵌入. 直观地说, 上述方法仅学习每个特征的固定表示, 未考虑每个特征在不同上下文中的不同重要性, 导致性能较差. 最近的一些CTR预测方法[29]试图学习特征表示的向量级权重, 以解决固定特征表示问题. 因子化模型(IFM)[29]和双因子化模型(DIFM)[30]分别提出因子估计网络(FEN)和双重FEN, 通过学习不同特征表示的向量级权重来改进FM. 类似地, 双线性特征交互网络(FiBiNET)[31]使用挤压和激励网络(SENET)[32]通过重新加权原始特征来提取信息特征. 然而, 仅将向量级权重分配给同一特征会导致同一特征的学习表示具有严格的线性关系. 然而, 仅产生线性变换来改进固定特征表示是不合理的, 因为它们不够灵活, 无法捕捉不同上下文下每个特征的不同重要性. 最近, EGate[33]为每个特征应用了一个独立的MLP来学习元素级权重. FGCNN通过局部特征生成, CNN用来学习邻居特征交互, 而MLP用于全局的特征交互. 尽管如此, 相同特征的表示仍然是固定的, 因为它只转换表示空间. FRNet[34]通过非线性上下文感知特征表示学习建模, 具有一定的先进性, 但并不完美.
本文的方法与现有的方法相关, 但最大的不同在于本文既保留了生成更灵活的非线性上下文感知特征表示的优势, 又结合了卷积神经网络特征生成和场矩阵分解机各自的优势, 以实现更好的全局特征交互和原始特征不同特征场间的交互.
2 本文方法本文将详细介绍论文提出的FRCNN-F模型, 如图1所示. 将按照由底向上的顺序逐一介绍模型的组成, 包括: 输入层和嵌入层、FRCNN-F层、特征交互层和预测层. 最后, 通过实验分析, 验证了FRCNN-F模型具有更好的性能.
2.1 输入层和嵌入层首先将用户所有的特征字段表示为稀疏向量, 这是所有字段的串联, 如式(1)所示:
$ X = \left[ {{x_1};{x_2}; \cdots ;{x_m}} \right] $ | (1) |
其中,
然后, 将输入层高维稀疏的特征映射到低维稠密空间, 具体如式(2)所示:
$ {e_i} = {V_i}{x_i} $ | (2) |
其中,
本文提出的FRCNN-F主要由两个重要部分组成.
(1) FRCNN模块: 该模块通过信息提取单元(IEU)生成重要性特征, 并通过互补选择门(CSGate)自适应地将原始特征和互补特征进行元素级权重集成. 这样的集成能够更好地捕获上下文交叉特征, 以指导上下文感知特征细化的过程.
(2) 该模块主要通过不同特征场之间的相互交互来捕获不同场特征之间的重要性. 通过使用FmFM交互项模块, 模型能够有效地对特征场进行建模, 从而提高对特征交叉的建模能力.
2.2.1 FRCNN模块为了进一步研究特征细化网络特征提取的思想, 本文设计了FRCNN模块, 该模块主要由IEU和CSGate两部分组成. IEU由3个基本组成部分构成: 第一, 特征生成单元: 在自注意力卷积下, 该单元捕获明确的特征交叉关系, 用于识别和生成新的重要特征. 通过自注意力机制, 模型能够聚焦于重要的特征关系, 从而提取更具表征力的特征. 第二, 上下文信息提取器(CIE): 该组件旨在对不同的上下文信息进行编码. 它能够捕捉到数据中的上下文依赖关系, 并将这些信息整合到特征提取过程中. 通过CIE, 模型能够更好地利用上下文信息来增强特征的表示能力. 第三, 集成单元: 该单元将自注意力特征重组生成的卷积单元与输出的上下文信息单元做哈达玛积. 通过将两者进行元素级的加权集成, 模型能够更好地融合特征生成和上下文信息, 以获取更丰富的特征表示. 本文使用两个IEU单元的目的是更好地生成互补的特征表示. 通过多个IEU单元的组合, 可以更充分地提取重要的上下文信息, 并进一步优化特征细化过程.
综上所述, IEU单元主要通过特征生成单元、上下文信息提取器(CIE)和集成单元等模块的组合来实现特征的细化和上下文信息的提取. 这些模块的协同作用有助于提高特征表示的能力和模型的性能.
特征生成单元: 首先通过计算相关的特征加权和来生成新的表示. 自注意单元为:
$ Att(Q, K, V) = {\textit{Softmax}}\left( {Q{K^{\rm{T}}}} \right)V $ | (3) |
$ Q = W_i^{\left( Q \right)}E, \; K = W_i^{\left( K \right)}E, \; V = W_i^{\left( V \right)}E $ | (4) |
其中,
为了实现从重要性特征中生成新的重要特征这一目标, 卷积特征生成模块设计了一个合适的神经网络结构来识别有用的特征交互, 然后自动生成新的重要特征. 特征生成的CNN和重组结构, 即卷积层、池化层和重组层, 如图2所示.
FRCNN卷积层: 卷积特征输入的嵌入矩阵为
$ C_{a, b, i}^1 = {\rm{tanh}}\left( {\sum\limits_{m = 1}^1 {\sum\limits_{j = 1}^{{h^1}} {E_{a + j - 1, b, m}^1W_{j, 1, 1, i}^1} } } \right) $ | (5) |
其中,
FRCNN池化层: 在第1个卷积层后, 应用最大池化来捕获最重要的特征交互并减少参数的数量. 池化层的高度为
$ P_{a, b, i}^1 = \max \left( {C_{a, {h_a}, b, i}^1, \cdots , C_{a, {h_a} + {h_b} - 1, b, i}^1} \right) $ | (6) |
第
FRCNN重组层: 在第i次卷积层和池化层之后, 本文通过一个全连接层来重组局部相邻特征并生成重要新特征, 将权重矩阵表示为
$ {R^i} = \tanh \left( {{P^i} \cdot W_r^i + B_r^i} \right) $ | (7) |
FRCNN连接层: 可以通过执行多次CNN和重组结构来生成新的特征. 假设存在
$ \Re = \left( {{R^1}, {R^2}, \cdots , {R^{{n_c}}}} \right) $ | (8) |
然后, 将总体的新特征进行连接后通过Linear函数处理, 与上下文信息提取器的结果做哈达玛积运算.
上下文信息提取器(CIE): 该部分需要提取每个实例中的所有隐式包含的上下文特征. 因为需要确保所有特征都由于上下文信息一般是相对简单的, 所以选择MLP提取上下文信息是一个简单而有效的选择. 具体步骤如图3所示. 本文首先将原始特征通过Linear函数展平表示得到
然后, 隐藏层计算如式(9)所示:
$ {L_i} = ReLU\left( {{W_{i - 1}}{L_{i - 1}} + {b_{i - 1}}} \right) $ | (9) |
其中,
集成单元: 在获得上下文信息
$ {O_{IEU}} = {O_{vec}} \odot \;{O_{bit}} $ | (10) |
其中,
如图1所示, 本文划分了两个独立的
在互补选择门中, 为更好地利用元素级权重从原始和互补特征中选择重要特征信息, 本文设计融合这种新的门机制来控制信息流.
$ {E}_{R}=\underset{重要特征}{\underbrace{E\odot S\left({W}_{b}\right)}}+\underset{互补特征}{\underbrace{{E}_{a}\odot \left(1-S\left({W}_{b}\right)\right)}} $ | (11) |
其中, S函数表示Sigmoid函数, 用于将结果限制在[0, 1]范围之间. 式(11)包含两部分特征: 重要特征和互补特征. 两个部分由选择门连接.
重要特征: 基于选择门结构, 通过该特征从元素级原始特征中选择重要特征信息. 具体来说, 通过
互补特征: 基于选择门结构, 通过该特征进一步增强上下文特征的互补信息的表达能力. 现有的大多方法没有去考虑未选择的信息, 只考虑了原始特征的权重分配. 然而, 本文认为, 当前未选择的特征仍可能以不同的方式对CTR预测有帮助, 所以本文利用
总而言之, FRCNN主要分为3个部分来生成上下文感知特征表示: 首先利用
围绕上述模型, 为更好地提取低阶非线性特征交互, 本文设计了一个新模型作为本文一个子模型, 将场与场的相互作用表示为矩阵. 为每个特征学习一个嵌入向量. 通过定义一个矩阵
$ \begin{split} {\Im _{FmFM}}&\left( {\left( {w, v} \right), x} \right) = {w_0} + \sum\limits_{i = 1}^m {{x_i}} {w_i} \\ & + \sum\limits_{i = 1}^m {\sum\limits_{j = i + 1}^m {{x_i}} } {x_j}\left\langle {{v_i}} {M_{F\left( i \right), F\left( j \right)}}, {{v_j}} \right\rangle \end{split} $ | (12) |
其中,
FmFM是FwFM的扩展, 因为它使用二维矩阵对不同场对进行交互, 而不是像FwFM中用标量权重. 利用这些矩阵, 可以将嵌入空间中的特征转移到
模型计算大致可分为3步: 首先通过嵌入查找, 从嵌入表中找到3个特征嵌入向量
总体来看, 场矩阵分解机的交互项在模型中的引入具有以下几个关键效果: 首先, 通过引入共享嵌入矩阵, 交互项增强了嵌入层的灵活性, 支持不同嵌入向量维度的输入. 其次, 场矩阵分解机交互项的引入允许模型实现特征之间的高阶交叉, 从而能够更好地捕捉特征之间的复杂关系. 此外, 这种引入还有助于模型学习更具区分度的上下文特征表示, 进一步提升了模型在特征学习方面的能力.
2.3 特征交互层与预测层本文中在该层主要选择了FM作为本文特征交互模型. 在本文的基线模型中进行实验表明, 从模型性能和时间效能等综合因素出发, FM相对来说是最优的选择. 如式(13)所示:
$ {\Im _{FM}}\left( {\left( {w, v} \right), x} \right) = {w_0} + \sum\limits_{i = 1}^m {{x_i}} {w_i} + \sum\limits_{i = 1}^m {\sum\limits_{j = i + 1}^m {{x_i}} } {x_j}\left\langle {{v_i}, {v_j}} \right\rangle $ | (13) |
其中,
在预测层中, 本文使用的是交叉熵损失函数, 具体的计算如式(14).
$ Logloss = - \frac{1}{N}\sum\limits_{j = 1}^N {\left( {{y_j}\log \left( { {{\hat y_j}}} \right) + \left( {1 - {y_j}} \right)\log \left( {1 - {{\hat y_j}}} \right)} \right)} $ | (14) |
其中,
为了有效进行实验比较, 实验部分的数据集使用NFM[6]和AFM[14]论文中提供的数据集: Frappe和MovieLens数据集. 其中Frappe数据集是来自于一个上下文感知的应用程序发现工具. 该数据集由Baltrunas等人创建, 包含了96203条用户在不同上下文情况下的应用程序使用日志. 实验使用的数据集共包括668953条用户对电影的打标签数据, 其中共有23743个电影项, 17045个用户, 以及49657个不同的标签.
同样, MovieLens数据集中的 每条用户电影标签数据(即用户ID, 电影ID和标签)都分别使用one-hot转换为特征向量, Frappe数据集总共生产了5382个特征, MovieLens数据集总共获得 90445个特征. 表1总结了最终实验数据集的情况:
本文采用AUC (ROC曲线下面积)和Logloss (二进制交叉熵损失)作为评估指标. AUC是随机给定一个阳性样本和一个阴性样本, 用一个分类器进行分类和预测, 来衡量阳性样本的得分高于阴性样本的得分的概率. AUC越高, 性能越好. Logloss主要是为了衡量预估点击率和实际点击率的拟合程度. Logloss越小越好. 总的来说, AUC和Logloss都很好地体现了模型的综合性能.
3.2 实验细节用PyTorch 实现了本文的所有方法, 所有模型保证相同的实验环境, 本文的实验环境如表2所列.
为了解决低配置机器内存问题, 引入LMDB缓存数据库, 减轻读写压力, 让低配置机器更好的运行. 同时, 本文所有模型都采用Adam优化器优化交叉熵损失来学习的. 训练过程中, 如果给定指标在4个连续时期内停止改进, 则通过ReduceLR-OnPlateau调度器将学习率降低10倍. 默认的学习率为0.001. 当验证集上的AUC停止改善时, 本文使用提前停止来避免过拟合情况. BatchSize大小设置为4096. Frappe和MovieLens的嵌入大小设置为20. 根据先前的工作, 本文对设计MLP的模型采用相同的结构(即3层, 400-400-400), 以进行公平比较. 除非有特别说明, 否则所有的激活函数均为ReLU, 并将Dropout设置为0.5. 在FRCNN中, CIE中MLP的维度设置为128. 对于其他模型设置, 本文采用原论文最佳设置. 为了确保实验公平可信, 本文通过改变随机种子来运行实验5次, 并报告平均结果. 在实验环节中将提出的FRNet-FGCNN应用于FM. 在基线论文中通过比较发现应用于FM的方法比高阶或集成方法具有更少的参数、更快的训练速度以及相对较好的性能. 因此, 本文选择应用于FM. 将提出的FRCNN-F与其他主流模型相比较, 包括FM[2]、IFM[29]、DIFM[30]、NFM[6]、IPNN[15]、FINT[16]、FiBiNET[31]、DeepFM[4]、xDeepFM[8]、AutoInt+[5]、DESTINE[25] 、DCN-V2[26]、AutoInt-APG[35]、FMFRNet[34], 同时也尝试各种不同的FRNet改进方案.
3.3 实验结果及分析 3.3.1 模型性能比较在本节中, 通过表3对Frappe和MovieLens测试集上各个模型的总体性能进行了总结. 从表3中可以观察到, FRNet作为基线模型在性能表现上相当出众, 但由于其相对简单的模型结构, 难以适应复杂的数据. 然而, 通过实验可以看出, 本文提出的模型相比主流模型具有更好的效果. 这也在一定程度上说明, 引入卷积神经网络和场矩阵分解机交互项是一个正确的选择. 在对表3中各个模型进行比较后, 本文提出的FRCNN-F模型表现最佳. 在Frappe数据集下, FRCNN-F模型的AUC值比DESTINE、DCN-V2和AutoInt-APG模型分别高0.40%、0.38%和0.21%, FRCNN-F模型的AUC值比FRNet高出0.32%, 在MovieLens数据集下, FRCNN-F模型的AUC值比DESTINE、DCN-V2和AutoInt-APG模型分别高0.90%、0.77%和0.53%, FRCNN-F模型的AUC值比FRNet高出0.40%. 同时, Frappe数据集下提出的FRCNN-F模型的Logloss值比FRNet低1.50%, FRCNN-F模型比DESTINE、DCN-V2模型的Logloss值分别低2.09 %、1.34%, 比AutoInt-APG稍微高0.03%. 在MovieLens数据集下提出的FRCNN-F模型的Logloss值比FRNet低1.11%, FRCNN-F模型比DESTINE、DCN-V2和AutoInt-APG模型的Logloss值分别低2.43%、2.21%和1.13%.
3.3.2 纵向比较各个改进模型的表现能力
在本节中, 针对FRNet模型进行了不同的改进尝试, 并通过实验结果在表4和图5中进行了展示.
首先, 进行了融合多头注意力方法的改进, 将注意力机制改为多头注意力机制. 通过多个层次的多头自注意力网络, 按顺序组合建模, 捕获更完整的上下文信息. 实验结果显示, 在Frappe数据集上, 融入多头注意力网络模型的AUC得分提高了0.04%, 但Logloss升高了0.49%. 在MovieLens数据集上, 融入多头注意力网络模型的AUC得分提高了0.21%, 但Logloss升高了1.40%. 其次, 进行了融合解耦注意力网络的改进, 通过解耦注意力网络替换注意力机制, 实现特征交互白化, 更准确地学习特征重要性. 实验结果显示, 在Frappe数据集上, 融入解耦注意力网络模型的AUC得分降低了0.06%, 但Logloss降低了1.96%. 在MovieLens数据集上, 融入解耦注意力网络模型的AUC得分提高了0.01%, 但Logloss升高了1.22%.
另外, 进行了融合挤压激励网络方法的改进, 通过挤压激励网络来动态学习特征重要性. 实验结果显示, 在Frappe数据集上, 融入挤压激励网络模型的AUC得分降低了0.11%, 但Logloss降低了1.01%. 在MovieLens数据集上, 融入挤压激励网络模型的AUC得分降低了0.41%, 且Logloss升高了0.15%. 另外两个改进包括融合场矩阵分解机模型和卷积神经网络模型. 融合场矩阵分解机模型的实验结果显示, 在Frappe数据集上, AUC得分升高了0.22%, Logloss降低了1.96%; 在MovieLens数据集上, AUC得分升高了0.35%, Logloss降低了0.10%. 融合卷积神经网络模型的实验结果显示, 在Frappe数据集上, AUC得分升高了0.25%, Logloss降低了0.94%; 在MovieLens数据集上, AUC得分升高了0.13%, Logloss降低了0.07%.
综合表4和图5的实验结果可以得出结论, 本文提出的FRCNN-F模型在性能表现上最佳.
3.3.3 超参数实验在本节中, 针对FRCNN-C模型中的卷积特征生成模型部分, 有两个关键的超参数需要进行分析, 即卷积核的高度和用于特征生成新特征核的数量. 通过在Frappe和MovieLens真实数据集上进行实验, 具体实验数据如图6所示.
首先是卷积核的高度. 卷积核的高度与卷积层的感知范围相关, 高度越大涉及的特征就越多, 但需要优化的参数也越多. 实验结果显示, 在Frappe数据集中, 随着卷积核高度的增加, 性能先上升后下降. 尽管AUC得分有所提高, 但Logloss也增加了. 在MovieLens数据集中, 随着卷积核高度的增加, 性能先略有下降, 然后再提升. 实验表明, 随着高度的增加, 卷积核能涉及到更多的特征, 学习到更高阶的特征交互, 从而提高性能. 然而, 由于有用的特征交互通常是稀疏的, 较大的高度可能导致难以有效地学习它们, 进而导致性能下降.
其次是用于特征生成新特征核的数量. 本文研究了生成特征的数量对FRCNN-F模型性能的影响. 在不同的重组层中, 使用相同数量的核来生成新特征. 如图6所示, 随着生成更多特征, 性能先逐渐提升后降低. 这表明有效的特征交互是有限的, 当生成太多特征时, 额外的新特征可能会带来噪声, 增加学习的难度, 导致性能下降.
通过实验结果的分析, 可以得出结论, 卷积核的高度和用于特征生成新特征核的数量对FRCNN-F模型的性能有一定的影响. 在选择这些超参数时, 需要平衡感知范围、参数数量和特征交互的稀疏性, 以获得最佳的性能表现.
3.3.4 可解释性推荐一个好的推荐系统不仅需要提供好的推荐结果, 还需要提供很好的解释性. 因此, 在本文中以Frappe数据集为例, 将介绍FRCNN-F如何解释推荐结果.
本文对数据中不同特征场之间相关性很感兴趣. 因此, 通过计算特征场在整个数据中的注意力得分来衡量特征场之间的相关性. 图7展示了不同的特征之间的相关性热图.
从邻域特征注意力热图可以发现, <用户id、APP_id、时间段、功课、费用、天气>它们相互之间有着较弱的相关性. 通过热图分析, 它们主要和单个特征场自身有着强相关性. 其次, 通过整个数据中不同特征场的平均注意力得分, 本文可以清楚地了解到捕捉低阶特征场和整体上下文信息是本文研究的重要方向. 此外, 还可以观察到<工作日、周末>、<地区、城市>存在着一定的联系, 这体现了我们邻域推荐规则的可解释性.
3.3.5 消融实验在本节中, 本文在Frappe和MovieLens数据集上进行了实验, 来证明FRCNN-F中每个组件都起着至关重要的作用. 如表5所列, 通过使用依次移除FRCNN-F中某一个组件来观察对模型的影响. 为了更好地了解每个组件的相对重要性, 本文将FRCNN-F设置成本文的基本模型(即BASE), 然后逐步移除组件.
NO-FmFM*: 移除了场矩阵分解机的交互项, 通过自注意力卷积神经网络模块和上下文提取器的结果进行哈达玛积, 并通过互补选择门自适应地集成原始特征和互补特征的元素级权重, 以捕获上下文交叉特征. 实验结果显示, Frappe和MovieLens数据集中的AUC得分分别下降了0.07%和0.27%, Logloss上升了0.56%和1.04%.
NO-FGCNN: 移除了卷积神经网络的重要特征生成. 随着进一步的移除, 模型变为本文的基线模型: FRNet. 实验结果显示, Frappe和MovieLens数据集中的AUC得分分别下降了0.25%和0.94%, Logloss上升了0.13%和0.07%.
NO-CSGate: 移除了互补选择门单元. 随着进一步的移除, 通过自注意力模块和上下文提取器的结果进行哈达玛积, 仅从原始特征中提取上下文特征. 实验结果显示, Frappe和MovieLens数据集中的AUC得分分别下降了0.10%和1.22%, Logloss上升了1.78%和3.35%.
NO-CIE: 移除了上下文提取器. 随着进一步移除, 仅通过自注意力模块对重要特征进行提取. 通过实验显示, 在Frappe和MovieLens数据集中, AUC得分分别下降了0.12%和0.14%, Logloss上升了0.15%和0.15%.
FM: 移除了整个IEU模块, 只保留了FM. 可以观察到明显的下降, 实验结果在两个数据集中显示了本文IEU模块的重要性.
综合表5实验分析可知, 各个模块的组件对应本文模型性能都必不可少, 说明本文方法的合理性.
4 结论与展望本文提出了一种新颖的特征组合方式, 利用注意力单元进行重要性特征提取, 并结合卷积神经网络特征生成, 以生成新的重要性特征. 然后结合上下文提取单元和互补选择门单元, 以更好地整合原始特征和上下文感知的互补特征表示的特征交互. 同时, 在特征细化的卷积神经网络模块中加入场矩阵分解机, 以实现更好的场对之间的特征交互. 本文提出的模型名为FRCNN-F, 优势在于在进一步细化上下文感知的同时, 保留了场对之间的特征交互, 从而提升性能. 该模型不仅具备FRNet算法提升上下文表征学习的特点, 而且与其他子模型兼容性良好. 实验结果表明, 与基线模型相比, 本文提出的新模型在两个真实数据集上性能始终更好, 但在计算复杂度方面仍存在一些不足之处. 未来的工作方向有两个.
1) 对于互补选择门与互补特征的连接方式, 希望能够寻找更好的方法来提高解释性.
2) 在不降低模型性能的前提下, 希望能够找到新的可靠子模型, 同时尽可能降低计算复杂度.
[1] |
Zhang WN, Qin JR, Guo W, et al. Deep learning for click-through rate estimation. Proceedings of the 30th International Joint Conference on Artificial Intelligence. Montreal: IJCAI, 2021. 4695–4703.
|
[2] |
Rendle S. Factorization machines. Proceedings of the 2010 IEEE International Conference on Data Mining. Sydney: IEEE, 2010. 995–1000.
|
[3] |
Cheng HT, Koc L, Harmsen J, et al. Wide & deep learning for recommender systems. Proceedings of the 1st Workshop on Deep Learning for Recommender Systems. Boston: ACM, 2016. 7–10.
|
[4] |
Guo HF, Tang RM, Ye YM, et al. DeepFM: A factorization-machine based neural network for CTR prediction. Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne: AAAI Press, 2017. 1725–1731.
|
[5] |
Song WP, Shi CC, Xiao ZP, et al. AutoInt: Automatic feature interaction learning via self-attentive neural networks. Proceedings of the 28th ACM International Conference on Information and Knowledge Management. Beijing: ACM, 2019. 1161–1170.
|
[6] |
He X, Chua TS. Neural factorization machines for sparse predictive analytics. Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval. Shinjuku: ACM, 2017. 355–364.
|
[7] |
Covington P, Adams J, Sargin E. Deep neural networks for YouTube recommendations. Proceedings of the 10th ACM Conference on Recommender Systems. Boston: ACM, 2016. 191–198.
|
[8] |
Lian JX, Zhou XH, Zhang FZ, et al. xDeepFM: Combining explicit and implicit feature interactions for recommender systems. Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. London: ACM, 2018. 1754–1763.
|
[9] |
刘梦娟, 曾贵川, 岳威, 等. 基于融合结构的在线广告点击率预测模型. 计算机学报, 2019, 42(7): 1570-1587. |
[10] |
Shaw P, Uszkoreit J, Vaswani A. Self-attention with relative position representations. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). New Orleans: ACL, 2018. 464–468.
|
[11] |
Liu B, Tang RM, Chen YZ, et al. Feature generation by convolutional neural network for click-through rate prediction. Proceedings of the 2019 World Wide Web Conference. San Francisco: ACM, 2019. 1119–1129.
|
[12] |
Sun Y, Pan JW, Zhang A, et al. FM2: Field-matrixed factorization machines for recommender systems. Proceedings of the 2021 Web Conference. Ljubljana: ACM, 2021. 2828–2837.
|
[13] |
Pan JW, Xu J, Ruiz AL, et al. Field-weighted factorization machines for click-through rate prediction in display advertising. Proceedings of the 2018 World Wide Web Conference. Lyon: International World Wide Web Conferences Steering Committee, 2018. 1349–1357.
|
[14] |
Xiao J, Ye H, He XN, et al. Attentional factorization machines: Learning the weight of feature interactions via attention networks. Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne: IJCAI, 2017. 3119–3125.
|
[15] |
Qu YR, Cai H, Ren K, et al. Product-based neural networks for user response prediction. Proceedings of the 16th IEEE International Conference on Data Mining (ICDM). Barcelona: IEEE, 2016. 1149–1154.
|
[16] | Zhao ZS, Yang S, Liu GH, et al. FINT: Field-aware interaction neural network for CTR prediction. arXiv:2107.01999, 2021. |
[17] |
Shan Y, Hoens TR, Jian J, et al. Deep crossing: Web-scale modeling without manually crafted combinatorial features. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco: ACM, 2016. 255–262.
|
[18] |
Liu Q, Yu F, Wu S, et al. A convolutional click prediction model. Proceedings of the 24th ACM International on Conference on Information and Knowledge Management. Melbourne: ACM, 2015. 1743–1746.
|
[19] |
Juan Y, Zhuang Y, Chin WS, et al. Field-aware factorization machines for CTR prediction. Proceedings of the 10th ACM Conference on Recommender Systems. Boston: ACM, 2016. 43–50.
|
[20] |
Li ZY, Cheng W, Chen Y, et al. Interpretable click-through rate prediction through hierarchical attention. Proceedings of the 13th International Conference on Web Search and Data Mining. Houston: ACM, 2020. 313–321.
|
[21] |
熊中敏, 舒贵文, 郭怀宇. 融合用户偏好的图神经网络推荐模型. 计算机科学, 2022, 49(6): 165-171. |
[22] |
Li ZK, Cui ZY, Wu S, et al. Fi-GNN: Modeling feature interactions via graph neural networks for CTR prediction. Proceedings of the 28th ACM International Conference on Information and Knowledge Management. Beijing: ACM, 2019. 539–548.
|
[23] |
Lang L, Zhu ZL, Liu XY, et al. Architecture and operation adaptive network for online recommendations. Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. ACM, 2021. 3139–3149.
|
[24] |
Li F, Yan BC, Long QQ, et al. Explicit semantic cross feature learning via pre-trained graph neural networks for CTR prediction. Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval. ACM, 2021. 2161–2165.
|
[25] |
Xu YC, Zhu YQ, Yu F, et al. Disentangled self-attentive neural networks for click-through rate prediction. Proceedings of the 30th ACM International Conference on Information & Knowledge Management. ACM, 2021. 3553–3557.
|
[26] |
Wang RX, Shivanna R, Cheng D, et al. DCN V2: Improved deep & cross network and practical lessons for Web-scale learning to rank systems. Proceedings of the 2021 Web Conference. Ljubljana: ACM, 2021. 1785–1797.
|
[27] |
Leng JX, Liu Y, Wang ZH, et al. CrossNet: Detecting objects as crosses. IEEE Transactions on Multimedia, 2022, 24: 861-875. DOI:10.1109/TMM.2021.3060278 |
[28] |
Guo HF, Chen B, Tang RM, et al. An embedding learning framework for numerical features in CTR prediction. Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining. ACM, 2021. 2910–2918.
|
[29] |
Yu YT, Wang Z, Yuan B. An input-aware factorization machine for sparse prediction. Proceedings of the 28th International Joint Conference on Artificial Intelligence. Macao: AAAI Press, 2019. 1466–1472.
|
[30] |
Lu WT, Yu YT, Chang YZ, et al. A dual input-aware factorization machine for CTR prediction. Proceedings of the 29th International Joint Conference on Artificial Intelligence. Yokohama: IJCAI, 2020. 3139–3145.
|
[31] |
Huang TW, Zhang ZQ, Zhang JL. FiBiNET: Combining feature importance and bilinear feature interaction for click-through rate prediction. Proceedings of the 13th ACM Conference on Recommender Systems. Copenhagen: ACM, 2019. 169–177.
|
[32] |
Hu J, Shen L, Sun G, et al. Squeeze-and-excitation networks. Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2017. 7132–7141.
|
[33] | Huang T, She Q, Wang Z, et al. GateNet: Gating-enhanced deep network for click-through rate prediction. arXiv:2007.03519, 2020. |
[34] |
Wang FY, Wang YX, Li DS, et al. Enhancing CTR prediction with context-aware feature representation learning. Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. Madrid: ACM, 2022. 343–352.
|
[35] |
Yan BC, Wang PJ, Zhang K, et al. APG: Adaptive parameter generation network for click-through rate prediction. Proceedings of the 32nd International Conference on Neural Information Processing Systems. New Orleans: NeurIPS, 2022. 24740–24752.
|