随着数据量的骤增, 时刻都涌现着新的任务数据, 而在旧的任务数据上训练所得到的深度学习模型, 其性能随着不断新增的数据持续下降, 急需在新的数据上重新学习; 与此同时, 由于数据的隐私或存储问题, 以往的数据可能无法再次获得, 由此诞生了增量学习场景. 增量学习最先兴起于图像分类场景, 是对人工神经网络模拟人类在不同任务间对已学习的任务“记忆”“推导”能力的一种模仿. 关于增量学习动机, 即避免模型的灾难性遗忘问题的研究最早在文献[1]提出, 指出模型在新的任务数据上训练学习, 会影响先前任务的性能. 基于此, 学者提出了灾难性遗忘这个概念. 尔后, Li等人[2]提出了用蒸馏学习的方法[3]减缓灾难性遗忘问题. 随着增量学习问题研究的深入, 深度学习模型灾难性遗忘的原因被归因于几方面: 首先, 是学习新任务时的权重漂移现象. 这是在模型规模固定的情况下, 由于更新参数所用的数据发生了改变, 使得相关的网络权重以及相关激活变化, 进而导致网络输出发生较大的改变, 从而影响先前任务的性能; 其次, 是任务间混淆[4]问题. 这种问题是由于在类增量学习的场景中, 目标是将类与所有任务区分开来. 本文将现有的解决方式分为两大类别: 第1类方法为静态的模型结构; 第2类为模型结构动态分配的方法.
在静态结构增量场景中, 模型的神经元资源静态固定, 模型的大小或资源是在初次训练前就完成分配的. 这一类方法通过各种手段, 使得模型表征重叠部分相对固定或较小变化. 由于模型参数是以一定程度更新, 而非完全更新或者不加限制的更新, 所以模型理论上是能够既具有先前任务所学习到的知识, 又使得模型能够在新的任务上拟合的. 主要是通过一些正则化方法, 使得模型的参数受其约束, 理论上能够让模型在学习心得数据时巩固先前的知识, 这一系列方法大致可以进一步分为基于数据的正则化方法以及基于先验知识的正则化方法. Li 等人[2]最先将蒸馏学习方法用以解决增量学习问题. Huang等人[5]通过模式迁移学习的方法, 将表征解耦方法运用在任务增量方法上, 解耦后的类别相关信息输入到任务判别器作任务分类, 以辅佐最终重构的表征作增量分类任务. Ke等人[6]针对增量任务中不同任务间的相似性程度不同, 提出了针对任务相似性的算法. Zhou等人[7]利用了这种新、旧中类别语义关系之间的关联性, 提出了协同运输的增量学习方法. Lee等人[8]提出了一组注意力独立机制, 彼此独立的注意力模块相互竞争的学习用于解耦提取到的高维特征, 从而学习任务之间通用的独立机制, 从而避免模型的遗忘问题.
结构扩展的增量学习方法, 通过在新的任务上动态分配并适应新分配的神经元资源, 从而改变新数据在神经元上的表征分步, 使得相较于前任务时的网络有了不同的结构属性, 常见的方法为直接增加神经元个数或者直接以并联或串联增加网络层的方式进行重新训练. Shen等人[9]设计了一个面向自然语言处理槽填充的基于扩张结构的增量学习方法. Monaikul等人[10]提出了AddNER框架以及ExtendNER框架, 以解决增量场景在命名实体识别中, 新任务的数据无需重新对旧任务标签进行标记的问题. Yan等人[11]设计了一个两阶段动态扩张表征的增量模型框架. Singh等人[12]利用一部分的网络参数学习修正参数信息, 使得主网络能够利用这些信息来修正网络参数, 最终能够在新任务数据上拟合.
除了上述常规意义上的对网络模型结构的某些部分(一般是表征部分)进行扩张, 本文将基于记忆网络的回放方法[2]也归纳入模型扩张部分. Castro等人[13]对基于回放的增量学习方法进行细化, 完善了旧任务训练案例构建、更新的策略, 提出了一整完整的端到端的基于回放的增量学习框架. 针对分类器的偏置项参数倾向于新任务的问题, Wu等人[14]提出利用少量新、旧样本对分类器再次进行纠正训练, 避免因为回放数据过少的类不平衡问题. Lopez-Paz等人[15]提出梯度片段记忆算法, 通过约束先前任务损失不增加, 避免模型对先前任务的遗忘. de Masson等人[16]提出了稀疏性经验回放策略, 并创新性的将回放数据局部适应步骤增加在模型推断阶段.
但是, 上述方法存在以下几点问题. 首先, 针对任务增量的增量学习场景在测试时经常会由于缺少了任务标签导致性能下降, 且并不具有普遍性, 而没有任务标签的类增量场景更为普遍; 其次, 当模型在第t个任务时, 相较于第前t–1个任务, 当前任务的数据是足以让模型在当前任务中充分得到训练的, 这一点从深度学习本身以及我们做的消融实验本身都是足以说明的. 而前t–1个任务的样本的回放训练才是影响模型性能的关键, 有效利用存储的回放样本使模型快速恢复在先前任务上的性能是回放任务的重点.
对此, 本文提出了基于表征解耦的增量知识构造与遮蔽回放策略方法(incremental knowledge cons-truction and mask replay, IKCMR). 相较于利用类标签的解耦方法, 本文认为通过类标签解耦的知识并不能很好的指导最终分类, 因为模型所学到的知识其实是针对任务的而不是针对类别的, 而本文的最终目的是利用模型所学习到的知识去进行分类. 受启发于文献[4]所述的互补学习系统理论, 模型在有效提取感知时间的统计结构、泛化知识的同时, 还保留了特定任务的记忆或经验. 根据这一理念, 模型解耦后的公共特征与类别特征在学习和记忆方面的互补作用, 公共特征解耦器通过新的任务数据, 补充学习不同数据中语言、语义信息的共有特征, 类别特征解耦器专注于学习类别相关知识. 而后, 通过特征相似性方法, 本文将学习到的泛化知识与特定知识动态的结合, 以此作为最终分类器的输入. 本文的方法动态地协调了模型可塑性与稳定性平衡的问题. 同时, 为了进一步避免模型遗忘问题, 在回放训练中本文利用缓冲区存储的数据进行学习, 使得模型的类别相关的解耦器能够通过这些少量的回放数据快速回忆起先前任务的知识.
归纳起来, 本文的主要贡献如下.
(1)针对自然语言处理中更普遍的类别增量问题, 本文基于此提出了类增量特征解耦方法, 在避免了任务标签的同时, 以类的粒度对特征进行解耦, 并依照互补学习理论动态地进行特征重构.
(2)本文探索了在样例回放学习过程中, 普通的回放方法对比遮蔽回放学习方法对模型快速回忆先前任务知识的效果. 本文的解耦模型配合遮蔽回放学习方法, 能够在保持当前任务良好的情况下, 减少先前任务上知识遗忘造成的性能上的损失.
(3)本文通过自然语言处理的分类任务上的5个公认的数据集验证了IKCMR模型的有效性. 实验结果说明, IKCMR模型比现有的SOTA模型在类增量问题上的性能要更加出色. 除此之外, 也通过实验验证了融合了遮蔽回放的IKCMR能进一步提高模型的表现.
本文第1节将对本文的工作进行具体的描述. 第2节会呈现本文的实验结果以及结论部分. 最后, 第3节是本文的总结以及未来工作部分.
1 自然语言场景下的类增量问题方法首先, 本文对增量学习进行定义. 增量学习的任务通常来说是将模型在一系列非独立同分布的任务上进行训练. 将这一系列的非独立同分布的任务定义为
本文的总体框架如图1所示, 模型的主体由3个部分构成. 首先是低层特征提取部分, 该部分将输入的自然语言序列转化为特征向量; 模型的第2个部分是高层特征的解耦以及重构部分, 最后一部分则为模型的分类器部分. 近年, 各种大规模预训练模型在各项自然语言处理任务中效果突出, 例如BERT[17]和GPT-2[18]等大规模的编码器-解码器[19] 结构的模型. 为了更加高效的搭建模型以及资源限制问题, 本文将预训练语言模型BERT作为表征嵌入部分. 在此基础上, 模型的第2部分从高层特征表示出发. 首先, 将句子的特征输入公共编码器和类别编码器中, 得到编码后的关于当前任务的类别特征以及公共特征, 例如更好的文本表征、句子间的关系等; 接着, 通过对公共表征与类别表征的表征相似度分析, 并以此为依据将两种特征进行融合, 得到模型结构的相似性, 这种相似性是区别于模型表征的相似性的, 模型表征的相似度其实是较为底层的, 生成其最终的语义特征.
1.1 公共特征网络公共特征解耦器如何学习到自然语言的共性, 即类别无关的特征是本文要解决的一大难点, 而大规模语言模型的训练给了本文以启发. 大规模预训练模型通过例如下一句预测、遮蔽语言模型等任务, 使模型通过大量不同的语料学习到其共性特征. 类似的, 从理论上来说, 公共特征网络接触过的任务越多, 其能学习到的自然语言特征的共性也就越多. 模型在学习任务
$\left\{ \begin{split} &{E}_{G}=\left\{{e}_{G}^{1}, \cdots , {e}_{G}^{n}\right\}, \; {e}_{G}^{j}\in {R}^{D} \\ &{e}_{G}^{ij}={\rm{tanh}}\left(Ne{t}_{G}\left({\rm{token}}_{j}\right)\right) \end{split} \right.$ | (1) |
公共特征网络需要学习和理解样本
$ {\widehat{{\rm{token}}}}_{{\rm{mask}}}=Ne{t}_{D}\left({e}_{G}^{i, {\rm{mask}}}\right) $ | (2) |
其中, 对于公共特征网络的训练, 本文采用交叉熵作为预测的监督损失:
$ {\mathcal{L}}_{G}={\mathbb{E}}_{\left(x, y\right)\in {T}_{i}}({\widehat{{\rm{token}}}}_{i, {\rm{mask}}}, {\rm{token}}_{i, {\rm{mask}}}) $ | (3) |
此外, 为了进一步缓解模型遗忘问题, 本文对模型参数加上了额外的限制, 即对训练数据的解耦表征采取回归损失:
$ {\mathcal{L}}_{{\rm{reg}}}^{G}={\ell}_{(x, y)\in {T}_{i}}\left|\right|{Net}_{G}^{i-1}\left(x\right)-{Net}_{G}\left(x\right)|{\left.\right|}_{2} $ | (4) |
其中,
1.2 类别特征网络
传统的深度学习模型中, 只要低层特征训练足够充分, 通过训练数据即可直接训练出一个性能优异的网络. 类似的, 通过大规模预料训练的底层特征处理器, 再加上足够的训练数据, 即可在训练任务
$ {e}_{S}^{ij}={\rm{tanh}}\left(Ne{t}_{S}\left({\rm{token}}_{j}\right)\right) $ | (5) |
然后, 通过第3.4节中的特征融合方法得到融合后的特征表示
$ {E}_{{\rm{mix}}}^{i}=Mix({E}_{s}^{i}, {E}_{G}^{i}) $ | (6) |
$ \begin{split} \\ \widehat{y}=Cls\left({E}_{{\rm{mix}}}^{i}\right){\left.\right|}_{n}^{i=0} \end{split} $ | (7) |
最后, 再通过分类器到的标签进行分类损失学习, 同时对类别特征网络和分类器进行训练更新:
$ {\mathcal{L}}_{c}={\ell}_{(x, y)\in {T}_{i}}(\widehat{y}, y) $ | (8) |
此外, 对于类别特征网络, 本文对网络同样采用了一个回归损失以缓解灾难性以往问题:
$ {\mathcal{L}}_{{\rm{reg}}}^{s}={\ell}_{(x, y)\in {T}_{i}}\left\| {{Net}_{S}^{i-1}\left(x\right)-{Net}_{S}\left(x\right)} \right\|_{2} $ | (9) |
其中,
通过公共特征、类别特征解耦网络得到的特征
$ {\textit{HSIC}}\left({K}, {L}\right)=\frac{1}{{\left({n}-1\right)}^{2}}{{\rm{tr}}}\left({K}\left({{E}}_{{G}}, {{E}}_{{S}}\right){L}\right({{E}}_{{G}}, {{E}}_{{S}}\left)\right) $ | (10) |
$ {{\textit{Sim}}}({{E}}_{{G}}, {{E}}_{{S}})={C}{K}{A}\left({{E}}_{{G}}, {{E}}_{{S}}\right)=\frac{{\textit{{H}{S}{I}{C}}}({K}, {L})}{\sqrt{{\textit{{H}{S}{I}{C}}}\left({K}, {K}\right){\textit{{H}{S}{I}{C}}}({L}, {L})}} $ | (11) |
其中,
$ {E}={\textit{{S}{i}{m}}}({{E}}_{{G}}, {{E}}_{{S}})\cdot{{E}}_{{S}}\oplus \left(1-{\textit{{S}{i}{m}}}({{E}}_{{G}}, {{E}}_{{S}})\right)\cdot{{E}}_{{G}} $ | (12) |
在第
$ \left\{\begin{array}{l}{\rm{token}}_{i}=\left[{\rm{mask}}\right],\;{p({\rm{token}}}_{j})\geqslant k \\ {\rm{token}}_{i}={\rm{token}}_{i},\;\;\;{p({\rm{token}}}_{j}) < k\end{array}\right. $ | (13) |
其中,
$ {\mathcal{L}}_{{m}}={\mathbb{E}}_{\left(x, y\right)\in {\mathcal{T}}_{{{n}}_{{t}}}}({\widehat{{\rm{token}}}}_{i, {\rm{mask}}}, {\rm{token}}_{i, {\rm{mask}}}) $ | (14) |
模型总体训练优化目标是上述所有的损失的总和:
$ \mathcal{L}={\alpha }_{c}{\mathcal{L}}_{{c}}+{\alpha }_{G}{\mathcal{L}}_{{G}}+{\alpha }_{{\rm{reg}}}{\mathcal{L}}_{{{\rm{reg}}}}^{S}+{\alpha }_{{\rm{reg}}}{\mathcal{L}}_{{{\rm{reg}}}}^{{G}}+{{\alpha }}_{{m}}{\mathcal{L}}_{{m}} $ | (15) |
算法1展示了本文关于增量知识构造和基于遮蔽回放策略的类增量学习方法的完整过程.
算法1. 增量知识构造和基于遮蔽回放策略算法
输入:
输出: 增量训练后的
Begin
1. 分别用随机种子
2. For 增量任务
3. For 增量任务
4. 从增量任务
5. 随机对
6 初始化
7. If
8. 从记忆池筛选一批 exemplars
9. 将选取的exemplars与输入数据拼接;
10. Else
11. 通过式(1)得到公共特征
12. 通过式(5)得到任务特征
13. 通过式(10)–式(12), 根据公共和任务特征
14.
15.
16. 通过式(15)计算损失
17. 根据损失
18.
19. End For
20. 选择1% 已训练过的数据作为exemplars;
21. 通过式(13)得到遮蔽后的样本;
22. End For
23. Return
End
2 实验分析本节中进行了完整的实验和分析. 首先, 讨论了本文的实施细节和训练细节. 接下来, 本文的实验结果与SOTA方法进行了比较. 最后, 本文进行消融研究并对结果进行分析.
2.1 模型实现在类增量学习的实验设置中, 由于实际场景中任务的规模和数量是未知的. 基于所有任务的验证集数据的最优超参数方法, 例如网格搜索, 是过于乐观的. 在一定程度上, 模型的规模与模型的性能是成正比的. 所以通过上述的方法调整得到的模型并不具有代表性和说服力. 结合以上原因, 本文采用预训练的BERT ( https://huggingface.co/bert-base-uncased)为底层的特征提取器, 并采用传统的线性层作为知识解耦网络, 这样更具有说服力和通用性. 分类器是由线性层与Softmax激活函数组成.
由于计算资源的限制, 本文遵循Huang等人[5]的数据集设置. 具体来说, 本文对每个类别随机抽取2 000个训练实例. 本文对表1所示的任务序列进行了实验. 前3个是长度为3的任务序列, 遵循Huang等人[5]的实验设置; 其他是长度为5的任务序列, 遵循de Masson等人[16]的实验设置. 本文的实验环境为11 GB内存的NVIDIA 3080Ti上进行. 对于以前的任务的回放训练频率设置为每10个训练step一次. 增量训练和回放训练中, batchsize和最大序列长度分别为8和256. 超参数
2.2 实验分析
Replay[5, 22]: 在Finetune方法的基础上, 该方法在对新任务进行增量学习时, 对以前的任务数据存储并对模型回放训练.
MBPA[5, 23]: 该方法用情节性记忆模块来增强BERT. 其利用K-近邻来选择在测试时用于局部适应的例子.
LAMOL[5, 24]: 该方法提出同时学习任务并产生训练样本. 模型学习生成用于样本数据作为回放的伪样本. 本文和Sun等人[24]一样用Q&A格式的数据来喂养LAMOL.
IDBR[5]: 该方法用两个网络模块增强了BERT, 并用作持续学习文本分类问题. IDBR也利用了数据重放的方法.
L2P[25]: 该方法使模型在不同的任务中动态地通过提示进行学习. 该方法通过对提示词的优化, 使得模型再数据回放时提升对模型预测的准确性.
可以观察到, 直接对不同任务的序列进行微调会遭受大量的遗忘, 而在增量学习步骤中简单地存储和重放百分之一的示例, 有助于防止灾难性的遗忘. 另一种传统的增量学习方法, 正则化, 也在一定程度上缓解了灾难性遗忘. 但是他们的整体性能下降了大约10%. 本文也将我们的方法与SOTA方法进行了比较. 本文为它们提供了一些额外的设置, 如局部适应策略[23]等. 为IDBR和LAMOL提供了额外的任务标识符, 使其预测任务更加容易, IFCPR仍然有一定的优势高过其他方法. 可以观察到, 即使没有任务标识符或测试时的额外局部适应方法, 本文的方法也比所有基线方法高出1个百分点左右. 此外, 本文对类别特征网络以及增量知识构造环节的回归损失也进行了实验, 从试验结果说明, 对上述两个网络结构参数进行一定的约束也能有效地避免模型在增量任务序列中对先前任务的遗忘.
本文在所有的增量任务序列中对方法进行测试与评估, 表2和表3分别展示了模型在长度为3与5的类增量任务中的性能. 本文方法在准确率、遗忘率[26]方面一直优于所有比较的方法. 平均遗忘率(average forgetting rate,AFR)的定义如式(16)、式(17)所示:
$ {AFR}=\frac{1}{{i}-1}{\sum }_{{j}=1}^{{i}-1}{{F}}_{\left\{{i}, {j}\right\}} $ | (16) |
$ {F}_{i.j}=Ac{c}_{{\rm{best}}}-Ac{c}_{i, j}, \forall j < i $ | (17) |
其中,
1) 模型直接地在增量任务序列上进行微调会遭受较为严重的遗忘从而导致性能的下降, 而在增量任务的训练过程中穿插少量地样本回放, 即便是百分之一的示例也有助于防止模型灾难性的遗忘. 另一种传统的增量学习方法, 即正则化方法, 也能够在一定程度上缓解了灾难性遗忘. 但是他们的总体表现下降了10%左右.
2) 本文将IKCMR的方法与SOTA方法进行了比较, 如表4所示. 即便为SOTA提供了一些额外的设置, 如为IDBR方法和LAMOL方法提供了额外的任务标识符、为MBPA方法提供测试时的局部适应等使其预测任务更加容易, IKCMR仍然以明显的优势胜过它们. 可以观察到, 即使没有任务标识符或测试的额外便利, 本文的方法也比所有基线方法高出1个百分点.
3) 除了准确性之外, IKCMR在新任务的遗忘方面也有更好的表现. 计算了IKCMR在新的增量步骤(任务)上训练后的遗忘率, 如表5所示. IKCMR的遗忘率在一些任务序列中对第一个所学任务的遗忘甚至接近零. 即便增量任务序列的影响客观存在, IKCMR在防止遗忘的策略中也起到了很大作用. 不难发现, 即使某些任务的遗忘率大大增加(约2%), 模型的遗忘率仍能在一定范围内保持稳定. 这充分证明了IKCMR能够在其他增量任务和数据回放期间进行学习和复习.
2.3 消融实验
特征融合策略的影响: 本文首先分析了方法的特征构建和遮蔽重放策略的组成部分, 并展示了它们对最终性能的影响. 所有这些消融研究都是在固定内存设置下进行的. 本文评估了7种特征融合策略.
实验结果如表6所示, 特征融合策略使模型对不同的任务不敏感, 导致了不同的性能, 双线性插值的融合策略的融合效果最差. 余弦的融合策略在短序列的任务上取得了较好的平均性能, 我们认为基于角度的特征融合方法在任务序列较短时能取得较好的效果, 但是在高相似度的较长的增量任务中, 角相似度方法会造成严重的CF问题. 欧氏距离判别法和皮尔逊系数法的性能较为稳定. 本文采取的中心核对齐方法具有一定的不变性, 是通过计算数据点之间的相似性得到的, 其综合性能表现最好.
基于角度的特征融合方法在任务序列较短时能取得较好的效果, 但是在高相似度的较长的增量任务中, 角相似度方法会造成严重的CF问题. 欧氏距离判别法和皮尔逊系数法的性能较为稳定. 本文采取的中心核对齐方法具有一定的不变性, 是通过计算数据点之间的相似性得到的, 其综合性能表现最好.
回放策略的影响: 为了探究遮蔽重放策略对模型性能的影响, 本文对传统的回放策略与遮蔽回放策略进行消融实验. 具体如下: 传统的回放策略、带有遮蔽语言模型任务的回放策略. 关于回放策略的消融研究结果如表7所示. 结果显示, 采用遮蔽回放策略的IKCMR有助于减轻遗忘的程度, 这也验证了遮蔽回放策略对性能提升的有效性与必要性. 在数据回放的采样效果是有限的前提下, 在数据回放训练期间增加训练任务可以有效地提高样本的利用率. 由此可以证明, 本文的遮蔽回放策略能够使模型在有限的回放样本中恢复更多的记忆.
3 结论与展望
本文提出了一种面向自然语言处理的新型类增量学习方法. IKCMR将特征以类为粒度进行解耦, 并根据互补学习理论动态地重构特征, 有效地缓解灾难性遗忘问题. 同时, IKCMR利用遮蔽回放的方法, 快速调用以前任务的知识. 在5个数据集上的实验表明, IKCMR在类增量学习任务上优于现有的最先进方法. 进一步的分析表明, CKA的融合策略可以在跨特征重建过程中提取并结合更多有用的信息, 而遮蔽重放策略可以大幅提高增量学习的性能. 我们相信, 本文的方法可以扩展到NLP的其他增量学习任务, 如关系提取和命名实体识别. 本文计划对这些任务也进行进一步的研究.
[1] |
McCloskey M, Cohen NJ. Catastrophic interference in connectionist networks: The sequential learning problem. Psychology of Learning and Motivation, 1989, 24: 109-165. |
[2] |
Li ZZ, Hoiem D. Learning without forgetting. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(12): 2935-2947. DOI:10.1109/TPAMI.2017.2773081 |
[3] |
Hinton G, Vinyals O, Dean J. Distilling the knowledge in a neural network. arXiv:1503.02531, 2015.
|
[4] |
Masana M, Liu XL, Twardowski B, et al. Class-incremental learning: Survey and performance evaluation on image classification. arXiv:2010.15277, 2020.
|
[5] |
Huang YF, Zhang YZ, Chen JA, et al. Continual learning for text classification with information disentanglement based regularization. Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. ACL, 2021. 2736–2746.
|
[6] |
Ke ZX, Liu B, Huang XC. Continual learning of a mixed sequence of similar and dissimilar tasks. Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver: Curran Associates Inc., 2020. 18493–18504.
|
[7] |
Zhou DW, Ye HJ, Zhan DC. Co-transport for class-incremental learning. Proceedings of the 29th ACM International Conference on Multimedia. Chengdu: ACM, 2021. 1645–1654.
|
[8] |
Lee E, Huang CH, Lee CY. Few-shot and continual learning with attentive independent mechanisms. Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2021. 9435–9444.
|
[9] |
Shen YL, Zeng XY, Jin HX. A progressive model to enable continual learning for semantic slot filling. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: ACL, 2019. 1279–1284.
|
[10] |
Monaikul N, Castellucci G, Filice S, et al. Continual learning for named entity recognition. Proceedings of the AAAI Conference on Artificial Intelligence. 2021, 35(15): 13570–13577.
|
[11] |
Yan SP, Xie JW, He XM. DER: Dynamically expandable representation for class incremental learning. Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021. 3013–3022.
|
[12] |
Singh P, Mazumder P, Rai P, et al. Rectification-based knowledge retention for continual learning. Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021. 15277–15286.
|
[13] |
Castro FM, Marín-Jiménez MJ, Guil N, et al. End-to-end incremental learning. Proceedings of the 15th European Conference on Computer Vision (ECCV). Munich: Springer, 2018. 241–257.
|
[14] |
Wu Y, Chen YP, Wang LJ, et al. Large scale incremental learning. Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019. 374–382.
|
[15] |
Lopez-Paz D, Ranzato MA. Gradient episodic memory for continual learning. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 6470–6479.
|
[16] |
de Masson AC, Ruder S, Kong LP, et al. Episodic memory in lifelong language learning. Proceedings of the 33rd International Conference on Neural Information Processing Systems. Vancouver: Curran Associates Inc., 2019. 1177.
|
[17] |
Devlin J, Chang MW, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Minneapolis: ACL, 2018. 4171–4186.
|
[18] |
Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners. OpenAI Blog, 2019, 1(8): 9. |
[19] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach: Curran Associates Inc., 2017. 6000–6010.
|
[20] |
Kornblith S, Norouzi M, Lee H, et al. Similarity of neural network representations revisited. Proceedings of the 2019 International Conference on Machine Learning. 2019. 3519–3529.
|
[21] |
Zhang GQ, Kenta N, Kleijn WB. Extending AdamW by leveraging its second moment and magnitude. arXiv:2112.06125, 2021.
|
[22] |
Wang H, Xiong WH, Yu M, et al. Sentence embedding alignment for lifelong relation extraction. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Minneapolis: ACL, 2019. 796–806.
|
[23] |
Yogatama D, de Masson d’Autume C, Connor J, et al. Learning and evaluating general linguistic intelligence. arXiv:1901.11373, 2019.
|
[24] |
Sun FK, Ho CH, Lee HY. LAMOL: Language modeling for lifelong language learning. Proceedings of the 8th International Conference on Learning Representations. Addis Ababa: ICLR, 2019.
|
[25] |
Wang ZF, Zhang ZZ, Lee CY, et al. Learning to prompt for continual learning. Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022. 139–149.
|
[26] |
Mai ZD, Li RW, Jeong J, et al. Online continual learning in image classification: An empirical survey. Neurocomputing, 2022, 469: 28-51. DOI:10.1016/j.neucom.2021.10.021 |