函数自动命名是根据现有源代码自动生成可读性强的自然语言来描述函数的功能. 在软件维护过程中, 开发者往往需要花费大量的时间去理解一段代码所对应的功能. 其中, 一种重要的方式便是通过阅读函数名来快速的了解代码的功能, 从而节约开发者的时间. 尽管开发者可以通过函数名理解函数的功能, 但是在实际开发过程中往往这些函数名并不是完整的或具有时效性的. 这类问题可能会误导开发者, 导致开发者花费大量的时间来理解程序, 影响开发效率. 现有工作表明: “函数名大多是常规编程语言中聚集函数行为的最小命名单位, 因此函数名是函数抽象的基石. ”[1]. 因此, 在软件开发过程中, 给定一段代码, 如何自动生成一个正确并且相关联的函数名变得尤为重要.
随着深度学习技术的快速发展, 许多研究人员尝试使用深度学习模型来解决这个问题, 例如sequence-to-sequence模型[2-5]. Allamanis等[6]将代码解析成token序列, 然后利用卷积神经网络(CNN)对token序列进行建模, 通过卷积操作提取代码特征, 并引入注意力机制学习代码序列与函数名之间的关键信息. 但是, 使用token序列仅仅是代码的展开, 模型很难去学习到代码中的结构信息, 同时token序列过长导致模型很难学习到其中的语义信息. 为了解决这个问题, Alon等[7,8]通过将代码转化为抽象语法树(AST), 并根据每一个叶节点(变量名、方法名等)从AST中提取相关路径(AST Path)来作为代码的特征表示, 该特征向量包含了一定的结构信息以及语义信息. 之后Alon等[9]提出了code2seq模型, 对先前模型进行了再一次改进, 利用BiLSTM网络对AST路径进行模型构建, 然后通过引入注意力机制来学习所生成的单词与各条AST路径的相关性. 该方法在函数名预测任务中达到了目前最好效果. 然而, 该方法依旧存在弱化了AST树形结构信息的缺陷, 从而导致其很难学习到AST路径之间节点的信息. Fernandes等[10]提出一种结合sequence-to-sequence模型和图神经网络(GNN)模型的方法来表示代码, Sequence-GNNs. 该方法使用BiLSTM对代码序列进行编码, 然后引入图神经网络对编码后的代码序列进行建模, 最后得到的向量便是代码的特征表示. 但是BiLSTM等循环神经网络模型存在长程依赖问题, 该模型很难捕捉到长距离文本之间的关系, 会导致一些关键信息丢失.
可以看出, 目前在函数命名任务中面临两大挑战: (1)代码的表示方法. 对代码进行特征提取时, 不仅要提取其语义信息, 而且更要提取其结构信息. 在目前code2seq模型中, 该方法将代码表示为AST路径的集合, 引入注意力机制来提取代码的结构以及语义信息. 但是该方法对路径建模的同时一定程度上破坏了AST的结构, 而且只能提取路径内部节点之间的信息, 并不能有效提取路径间节点之间的信息, 尤其是数据流和控制流信息. (2)长程依赖问题[11]. 当前的代码片段可能依赖于离它很远的代码段. 例如, 一个程序中第90行的语句“a = a + 2; ”依赖于第10行语句“int a = 10; ”的变量定义. 随着代码长度的增加, BiLSTM等循环神经网络很难捕捉到长距离文本之间的信息.
本文提出一种新颖的神经网络模型TrGCN, 采用了近期提出的Transformer[12]模型, 该模型可以有效缓解长程依赖问题. 然而原生的的Transformer模型主要用于自然语言翻译中, 并不能应用在结构性很强的代码中. 所以我们在每个Transformer encoder block中添加了两层图卷积层[13], 将节点以及其相关节点进行卷积操作, 从而丰富代码的结构信息. 在函数命名任务中, 我们使用了Java-small、Java-med和Java-large[6,9]数据集, 在7个基准模型来评估TrGCN. 实验结果表明我们的模型明显优于其他基准模型, 相比于模型code2seq[9]和Sequence-GNNs[10], TrGCN在F1指标上分别提高了平均5.2%、2.1%; 在ROUGE-2和ROUGE-L指标上, 比Sequence-GNNs分别提高了0.7%、3.6%.
2 相关背景随着开源代码库的不断增加, 数据规模的不断增大, 越来越多的研究者开始使用机器学习对程序源代码进行建模, 学习其中的信息, 帮助开发者更好的理解程序. 起初研究人员把源代码作为一种符号序列, 将源代码转化为token序列, 并通过RNN或LSTM等序列模型(Seq2Seq)对其进行建模和学习序列中的信息. Allamanis等[14]利用Logbilinear模型, 通过对变量、函数名以及类名的上下文信息进行预测. 之后Allamanis等[6]提出了ConvAttention模型, 将源代码看做一组token序列, 并使用神经网络对其建模, 通过CNN以及注意力机制来学习代码和函数名之间的关键信息. Lyer等[15]和Hu等[16]在代码注释生成任务中利用RNN对源代码建模, 然后根据其建模结果使用RNN进行解码, 同时引入了注意力机制来学习注释文本中各个单词与函数体之间的关系. 程序语言与自然语言最大不同之处在于程序语言是一种高度结构化的语言, 而基于token的程序表示方法仅仅将代码线性展开, 丢失了程序语言的结构信息, 导致代码特征向量信息的不完整.
为了对程序的结构信息进行建模, 研究人员使用AST来对源代码进行建模. Li等[17]和Liu等[18]在代码补全任务中, 将程序源代码解析为AST, 然后遍历AST得到一组节点序列, 通过对其建模, 实现代码补全. Sun等[19,20]在代码生成任务中利用树卷积的方式, 将AST中的节点、双亲节点和祖先节点结合起来, 通过预测语法规则实现代码生成. Alon等[8,9]通过从AST中提取AST路径来表示程序的结构信息以及语法信息, 然后对AST路径建模, 并且引入注意力机制, 通过学习函数名和AST路径之间的关系来进行函数名预测. 虽然基于AST的程序表示方法有效的提取了程序的结构信息, 但是并不完整, 缺少对数据流以及控制流信息的提取.
随着图神经网络(GNN)的兴起, 研究人员尝试将程序源代码转化为图的形式并对其进行建模. 其转化方式为通过给AST增加更多的边, 使得模型可以更好的理解节点之间的关系. Allamanis等[21]提出了一种基于门控图神经网络(GGNN)[22]模型, 利用图的形式来表示程序源代码. 该方法通过将源代码的AST扩展为图的形式, 其中图中的节点表示AST序列中的token, 图中的边表示节点与节点之间的相互关系. Fernandes等[10]在代码注释任务中提出一种将GNN与Seq2Seq结合的模型, 首先使用BiLSTM对程序进行编码, 得到其特征向量表示, 然后利用GNN对其进行建模, 最后得到特征向量作为程序的特征表示. 但是先前的研究所使用的模型都是RNN、LSTM等循环神经网络模型, 存在长程依赖问题, 导致对代码特征信息的提取不够完整. 本文利用了Transformer中多头自注意力机制的特性来缓解这个问题.
为了将结构信息的提取与缓解长程依赖问题相结合, 本文提出了一种基于Transformer模型的图卷积神经网络(GCN)模型TrGCN, 使用图卷积提取代码的结构信息, 并且利用Transformer模型来缓解长程依赖问题.
3 模型结构图1显示了TrGCN模型的结构图, 主要包括两个部分: AST编码器和解码器.
3.1 Encoder-Decoder结构TrGCN使用了Transformer模型, 是一种标准的Encoder-Decoder结构, 其中Encoder编码器将输入的token序列
$p({y_1},\cdots,{y_m}|{x_1},\cdots,{x_n}) = \prod\nolimits_{j = 1}^m {p({y_j}|{{\textit{z}}_1},\cdots,{{\textit{z}}_n})} $ | (1) |
一段代码可以解析为一颗抽象语法树, 其叶节点被称为终结符, 一般是用户所定义的变量以及方法名等; 非叶节点被称为非终结符, 代表代码中的一些结构, 例如循环、表达式以及变量声明. 图2表示AST的一部分, 其中变量名(如num)代表终结符, 而条件语句(IfStmt)和表达式语句(ExpressionStmt)这些语法结构代表非终结符. 由于非终结符拥有丰富的结构信息, 终结符拥有丰富的语义信息, 所以AST编码器的目标就是尽可能的提取AST的结构信息和语义信息来帮助模型更好的理解代码. 首先将代码解析成一棵AST, 利用前序遍历的方式将AST展开成一组token序列. 假设AST为
Character Embedding. 无论是在自然语言中还是在代码中, 都会出现一些相似的单词并且拥有相近的语义, 例如name, names. 为了利用这个特性, 本文使用character embedding的方式来表示每个token, 公式如下:
${{n}}_{{i}}^{{c}} = {W^{\rm conv}}\left[ {{{c}}_{{1}}^{{{{n}}_{{i}}}}, \cdots ,{{c}}_{{M}}^{{{{n}}_{{i}}}}} \right]$ | (2) |
其中,
${{{n}}_{{i}}}{{ = }}{{{n}}_{{i}}}{{ + n}}_{{i}}^{{c}}$ | (3) |
其中, character的特征向量
3.4 AST编码器结构
AST编码器是由一组encoder组成(总共有N个encoder). 其中每个encoder中都包含3个不同的子层, 分别为多头自注意力层, character-word注意力层以及图卷积层, 通过这3个子层来提取输入代码中的特征信息. 本文将会在下面的小结中详细介绍这些子层. 其中每个子层之间添加了残差连接(residual connection[24])以及归一化层, 其中残差连接可以有效缓解网络退化问题和梯度弥散问题.
多头自注意力层: AST编码器中的self-attention子层与原生Transformer相同, 使用了多头自注意力机制来捕捉长程依赖信息.
假设有一组输入的token序列
$PE(pos,2i) = \sin \left( {pos/10\;{{000}^{2i/{d_{{{model}}}}}}} \right)$ | (4) |
$PE(pos,2i{\rm{ + }}1) = \cos \left( {pos/10\;{{000}^{2i/{d_{{{model}}}}}}} \right)$ | (5) |
其中, PE是二维矩阵, 行表示节点, 列表示节点的词向量; pos表示节点在输入序列中的位置,
每个Transformer中的encoder和decoder都会通过多头自注意力机制来学习数据中的非线性特征, 它的主要思想是将一个序列文本的上下文词汇通过矩阵乘法的方式, 使每个词汇都拥有其上下文词汇的特征信息. 而传统的注意力机制只是关注了源文本和目标文本之间关系. 多头自注意力机制是将多个拥有不同参数的自注意力机制进行融合, 使模型增强了关注序列文本不同位置的能力; 同时丰富了序列文本词汇的特征信息. 多头自注意力机制拥有更多线性变换, 变换之后会通过激活函数进行非线性转换, 从而提高了模型非线性的学习能力. 其公式如下:
${Y^{\rm self}} = concat(hea{d_1},\cdots,hea{d_H}){W_h}$ | (6) |
其中, H表示头的数量,
$hea{d_t} = softmax\left( {Q{K^ {\rm{T}}}/\sqrt {{d_k}} } \right)V$ | (7) |
其中,
$[Q,K,V] = {[{{{x}}_{{1}}}{{,}}\cdots{{,}}{{{x}}_{{L}}}]^ {\rm{T}} }[{W_Q},{W_K},{W_V}]$ | (8) |
其中,
Character-word注意力层[19]: 经过self-attention层计算得到的特征向量, 本层将会把该向量与保留下来的character embedding向量进行结合. 对于每一个单词, 将对
$\left[ {\alpha _i^y,\alpha _i^c} \right] = softmax\left\{ {{{q}}_{{i}}^ {\rm{T}} {{k}}_{{i}}^{{y}},{{q}}_{{i}}^ {\rm{T}} {{k}}_{{i}}^{{c}}} \right\} $ | (9) |
得到的两个注意力分数是用来衡量Transformer中self-attention层的输出
${{{h}}_{{i}}} = \left[ {\alpha _i^y{{v}}_{{i}}^{{y}} + \alpha _i^c{{v}}_{{i}}^{{c}}} \right]$ | (10) |
最后character-word注意力层的输出为
图卷积层: 考虑到模型很难学习节点的双亲节点、祖先节点等相关节点之间的关系, 例如: 节点a和节点b在文本中距离很远, 但是在AST结构中距离却很近, 因此, 对于传统的Transformer模型来说很难提取这样的结构信息.
为了更好的提取程序的结构信息, 将AST通过增加边的方式扩展为图的形式, 其中使用了7种边的类型[21]:
(1) Child edge: 当前节点与孩子之间的边.
(2) Parent edge: 当前节点与双亲节点之间的边.
(3) Grandparent edge: 当前节点与祖先节点之间的边.
(4) Next edge: 当前节点与其先驱节点(语义)之间的边.
(5) LastUse edge: 当前节点与在词法上最近节点之间的边.
(6) Next sibling edge: 当前节点与兄弟节点之间的边.
(7) Subtoken edge: subtokens之间的边.
TrGCN将AST视为图的形式, 同时使用邻接矩阵来表示AST扩展之后的图. 根据上文信息, 可以得到邻接矩阵
${{f}}_{{i}}^{{1}} = {{{f}}_{{i}}}{M_1}$ | (11) |
同理可以得到节点i的其他相关节点的特征表示, 计算如下:
$\left[ {{{f}}_{{i}}^{{1}}, \cdots ,{{f}}_{{i}}^{{7}}} \right] = \left[ {{{{f}}_i}{M_1}, \cdots ,{{{f}}_{{i}}}{M_7}} \right]$ | (12) |
其中,
为了将节点与其相关节点的特征向量结合起来, 本文使用了图卷积神经网络, 公式如下:
${{y}}_{{i}}^{{\rm{gconv}},{{l}}} = f\left( {{W^{{\rm{gconv}},l}}\left[ {{{f}}_{{i}}^{{{0}},{\rm{gconv}},{{l}} - {{1}}}, \cdots ,{{f}}_{{i}}^{{{7}},{\rm{gconv}},{{l}} - {{1}}}} \right]} \right)$ | (13) |
其中,
综上所述, AST编码器有N个encoder, 其中每个encoder包含3个子层, 最后AST编码器的输出为
模型最后的模块是解码器, 其作用是通过对AST解码器的结果进行解码, 从而来预测函数名. 解码器与AST 编码器的结构很类似, 由一组N个decoder组成, 其中包含多头自注意力层, encoder-decoder注意力层以及全连接层3个子层. 在每个子层都会增加残差连接和归一化层, 帮助模型训练. 其中在训练阶段, decoder的输入为函数名, 在预测阶段, 输入为空序列(仅由填充字符组成).
TrGCN利用上文提到的两个注意力子层将AST编码器的输出与decoder的输入进行结合. 首先利用多头自注意力机制来提取目标语句的特征向量
最后使用两层全连接层, 其中第一层全连接层使用激活函数ReLU, 第二层全连接层用来提取特征, 帮助模型预测结果.
3.6 模型训练预测函数名的下一个单词是通过使用激活函数Softmax对解码器最后一层的输出进行计算, 从而得到所有候选单词的概率, 选择概率最大的单词作为结果.
为了提高语义提取效果, TrGCN使用了指针网络[25], 该网络可以直接从函数体中复制单词来作为预测函数名时的候选单词. 如图3所示, 指针网络可以在预测函数名getName时, 从语句return name或者形参String name中复制单词name, 进行预测.
指针网络通过学习一个概率来指导模型对函数体中的单词进行复制或者是生成新的单词. 公式如下:
$P(w) = {p_{\rm gen}}{P_{\rm vocab}}(w) + (1 - {p_{\rm gen}}){P_c}$ | (14) |
其中, w表示单词,
在指针网络进行单词复制时, 因为在AST中终结符包含程序的语义信息, 非终结符包含程序的结构信息, 根据非终结符不会在函数体中出现, 仅需要从AST中的终结符复制的特点, TrGCN使用了Children注意力机制来计算
${\beta _t} = {W_1}{{{h}}^{{\rm{dec}}}}{W_2}{{{y}}^{{\rm{ast}}}}$ | (15) |
${\delta _{{t}}}{{ = }}{\beta _t}Mask$ | (16) |
${P_c} = \frac{{\exp \{ {\delta _t}\} }}{{\displaystyle\sum\nolimits_{j = 1}^L {\exp \{ {\delta _j}\} } }}$ | (17) |
其中,
本文在Java函数命名任务中评估TrGCN, 通过给定Java方法的函数体, 来预测函数名. 先前的研究表明, 这是一个很好的基准任务. 因为其数据集选自Github开源的Java项目, 其中的函数可以被认为是准确的、相关的, 函数体总体上都是完整的逻辑单元. 同时我们会对函数名进行处理, 将其转化为一组子token序列, 例如getMaxNumber可以被预测为序列get max number. 其中目标序列的平均长度为3.
4.1 数据集如表1所示, 本文使用3个不同规模的Java数据集来评估模型, Java-small, Java-med, Java-large[6,9].
Java-small包含12个大型的Java项目, 其中9个项目作为训练集, 1个项目作为验证集, 1个项目作为测试集. 该数据集包含约770 k条样例.
Java-med包含1000个来自Github的星标Java项目. 其中799个项目作为训练集, 100个项目作为验证集, 96个项目作为测试集. 该数据集大约有4 M条样例.
Java-large包含9555个来自Github的星标Java项目. 其中8998个项目作为训练集, 250个项目作为验证集, 307个项目作为测试集. 该数据集大约有14 M条样例.
4.2 评估标准本文采取的评估标准是Allamanis[6]以及Alon[9]等先前工作使用的评估标准, 对预测结果产生的subtokens计算Precision、Recall和F1值, 其中目标语句大小写不敏感. 这个指标的主要思想是一个预测出的函数名的质量依赖于其组成的子单词. 例如, 对于一个函数名countNumbers, 如果预测出的结果为numbersCount, 也认为它是精确的匹配; 如果预测结果为count, 那么它的Precision为100%, 但是Recall值却很低; 如果预测结果为countRandomNumbers, 那么它的Recall值为100%, 但是Precision值很低. 本文希望使Precision和Recall都尽可能的大, 但是这显然有些困难, 所以使用F1值来衡量这两个标准. 公式如下:
$Precision = \frac{{TP}}{{TP + FP}}$ | (18) |
$Recall = \frac{{TP}}{{TP + FN}}$ | (19) |
$F1 = \frac{{2*Precision*{Re} call}}{{Precision + {Re} call}}$ | (20) |
其中, TP为预测正确单词的数量, FP为预测错误单词的数量, FN为没有预测出正确单词的数量.
本文还使用了ROUGE[26]评估标准. 该标准主要用于摘要的自动评价, 通过比较机器自动生成的摘要与人工生成的摘要中重叠单元的数量, 来评价机器自动生成摘要的效果. 本文主要使用了ROUGE-2, ROUGE-L. 公式如下:
$ROUGE - N = \frac{{\displaystyle\sum\limits_{S \in \{ targetSeq\} } {\displaystyle\sum\limits_{gra{m_N} \in S} {Coun{t_{\rm match}}(gra{m_N})} } }}{{\displaystyle\sum\limits_{S \in \{ targetSeq\} } {\displaystyle\sum\limits_{gra{m_N} \in S} {Count(gra{m_N})} } }}$ | (21) |
其中, 分母统计目标语句中N-gram的个数, 而分子统计目标语句与预测出的语句共有N-gram的个数, 本文将N设置为2或L, 其中L代表预测出的语句和目标语句的最长公共子序列.
4.3 实验设置和环境配置在TrGCN模型中, AST编码器中encoder的数量为N=6, 解码器中decoder的数量为N=6. 词向量的维度和模型维度
TrGCN在每一层后使用了dropout, 来防止过拟合现象(其中包括注意力层, 卷积层以及全连接层), 其中
所有实验都运行在Linux(系统版本3.10.0-957.c17.x86-64, CPU Inter(R) Gold 6240@260 GHz 18 cores, 两块显存为12 GB的(NVIDIA)TITAN Xp显卡)系统下.
4.4 实验结果和分析在实验中本文使用了6个基准模型:
(1) Allamanis等提出ConvAttention模型[6], 该模型使用了带有注意力机制的卷积神经网络来预测函数名; (2) Alon等提出Path+CRFs[7]模型, 将句法路径与条件随机场相结合; (3) Alon等提出的code2vec[8]模型; (4) Alon等提出的code2seq[9]模型; (5) Tai等提出的TreeLSTM模型; (6) Vaswani提出的Transformer[12]模型.
表2显示了函数命名任务在Java数据集中的结果. 从表中可以看出, TrGCN在评估标准Precision、Recall和F1以及3个数据集中, 几乎都优于所有基准模型. 与ConvAttention对比, TrGCN在F1值提升约20.41%至21.8%, 其原因可能为TrGCN有效的提取了程序的结构信息. 同样在和TreeLSTM对比中发现, TrGCN在F1提升约6.12%至23.49%. 虽然TreeLSTM[28]也提取了程序的结构信息, 但是我们认为基于图的神经网络模型可以丰富结构信息, 具有更强的建模能力. 在与当前使用广泛模型code2seq[9]比较中发现, 我们的模型在F1值有着明显提高, 在数据集Java-small提升了10.44%, 在数据集Java-med提升了4.7%.
其原因可能不仅是图卷积神经网络提取到更加丰富的结构信息, 而且character-word 注意力机制以及指针网络可以有效的提升语义提取的效果. 但是我们发现随着数据规模的增大, 我们模型提升效果逐渐减小; 尤其在数据集Java-large中, Precision略低于code2seq模型, F1仅提高了0.56%. 可能的原因有: (1)随着数据规模的增大, 但是模型复杂度不变, 模型很难进一步从庞大的数据中学习; (2)基于图的神经网络模型虽然有很强的建模能力, 但是也具有模型复杂、较难训练的特点, 其中在3个数据集训练过程中, 迭代一次分别需要40分钟、2小时和4小时; (3)实验资源短缺, 实验室仅有两块12 G显存的(NVIDIA)TITAN Xp显卡, 随着数据量的增大, 内存以及显存无法满足训练要求, 所以只能通过减小batch_size来克服资源问题, 但是batch_size的大小一定程度会影响实验结果.
同时, 我们选择了一个基于图神经网络的基准模型, Fernandes等[10]提出的Sequence-GNNs模型, 该模型使用图神经网络来对程序进行编码. 表3说明我们的模型在评估标准F1, ROUGE-2以及ROUGE-L都优于模型Sequence-GNNs. 在code2seq文章中提到, Sequence-GNNs在数据集Java-large上的F1值低于code2seq, 所以我们只使用了数据集Java-small进行比较.
从表3中可以看出TrGCN在F1值比Sequence-GNNs提升了2.1%, 说明TrGCN在不考虑预测结果单词顺序的情况下有较强的预测能力; 在ROUGE-2和ROUGE-L分别提高了0.7%、3.6%, 可以看出TrGCN在考虑预测结果单词顺序的情况下同样优于Sequence-GNNs. 所以TrGCN模型在融合Transformer、图卷积以及character-word注意力机制后的预测能力的提高是有效的.
5 结论与展望本文提出了一个TrGCN模型来解决函数自动化命名任务. TrGCN利用Transformer中的注意力机制来缓解模型训练时遇到的长程依赖问题; 利用图卷积神经网络提取更为丰富的结构信息, 使得程序的特征向量信息更加完整; 利用character-word注意力机制以及指针网络来丰富程序的语义信息. 实验结果表明, TrGCN的函数命名效果优于其他基准模型. 在后续的研究中, 作者将使用不同的编程语言数据集, 以及不同的代码摘要任务来验证方法的有效性.
[1] |
Høst EW, Østvold BM. Debugging method names. Proceedings of the 23rd European Conference on Object-Oriented Programming. Genoa, Italy. 2009. 294–317.
|
[2] |
Sutskever I, Vinyals O, Le QV. Sequence to sequence learning with neural networks. Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, QC, Canada. 2014. 3104–3112.
|
[3] |
Cho K, Van Merriënboer B, Gulcehre C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation. arXiv: 1406.1078, 2014.
|
[4] |
Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate. arXiv: 1409.0473, 2014.
|
[5] |
Luong MT, Pham H, Manning CD. Effective approaches to attention-based neural machine translation. arXiv: 1508.04025, 2015.
|
[6] |
Allamanis M, Peng H, Sutton C. A convolutional attention network for extreme summarization of source code. Proceedings of the 33rd International Conference on Machine Learning. New York City, NY, USA. 2016. 2091–2100.
|
[7] |
Alon U, Zilberstein M, Levy O, et al. A general path-based representation for predicting program properties. ACM SIGPLAN Notices, 2018, 53(4): 404-419. DOI:10.1145/3296979.3192412 |
[8] |
Alon U, Zilberstein M, Levy O, et al. Code2vec: Learning distributed representations of code. Proceedings of the ACM on Programming Languages, 2019, 3(POPL): 40. |
[9] |
Alon U, Brody S, Levy O, et al. Code2seq: Generating sequences from structured representations of code. arXiv: 1808.01400, 2018.
|
[10] |
Fernandes P, Allamanis M, Brockschmidt M. Structured neural summarization. arXiv: 1811.01824, 2018.
|
[11] |
Bengio Y, Simard P, Frasconi P. Learning long-term dependencies with gradient descent is difficult. IEEE Transactions on Neural Networks, 1994, 5(2): 157-166. DOI:10.1109/72.279181 |
[12] |
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach, CA, USA. 2017. 5998–6008.
|
[13] |
Niepert M, Ahmed M, Kutzkov K. Learning convolutional neural networks for graphs. Proceedings of the 33rd International Conference on International Conference on Machine Learning. New York City, NY, USA. 2016.2014–2023.
|
[14] |
Allamanis M, Barr ET, Bird C, et al. Suggesting accurate method and class names. Proceedings of the 10th Joint Meeting on Foundations of Software Engineering. Bergamo, Italy. 2015. 38–49.
|
[15] |
Iyer S, Konstas I, Cheung A, et al. Summarizing source code using a neural attention model. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Berlin, Germany. 2016. 2073–2083.
|
[16] |
Hu X, Li G, Xia X, et al. Summarizing source code with transferred api knowledge. Proceedings of the 27th International Joint Conference on Artificial Intelligence. Stockholm, Sweden. 2018. 2269–2275.
|
[17] |
Li J, Wang Y, Lyu MR, et al. Code completion with neural attention and pointer networks. arXiv: 1711.09573, 2017.
|
[18] |
Liu C, Wang X, Shin R, et al. Neural code completion. Proceedings of International Conference on Learning Representations 2017 Conference Submission. Toulon, France. 2017. 1–14.
|
[19] |
Sun ZY, Zhu QH, Xiong YF, et al. TreeGen: A tree-based transformer architecture for code generation. The 34th AAAI Conference on Artificial Intelligence (AAAI 2020), the 32nd Innovative Applications of Artificial Intelligence Conference (IAAI 2020), the 10th AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI 2020). New York, NY, USA. 2020. 8984–8991.
|
[20] |
Sun ZY, Zhu QH, Mou LL, et al. A grammar-based structural CNN decoder for code generation. Proceedings of the 33rd AAAI Conference on Artificial Intelligence (AAAI 2019), the Thirty-First Innovative Applications of Artificial Intelligence Conference (IAAI 2019), the Ninth AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI 2019). Honolulu, HI, USA. 2019.7055–7062.
|
[21] |
Allamanis M, Brockschmidt M, Khademi M. Learning to represent programs with graphs. arXiv:1711.00740, 2017.
|
[22] |
Beck D, Haffari G, Cohn T. Graph-to-sequence learning using gated graph neural networks. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. 2018. 273–283.
|
[23] |
Ba JL, Kiros JR, Hinton GE. Layer normalization. arXiv: 1607.06450, 2016.
|
[24] |
He KM, Zhang XY, Ren SQ, et al. Deep residual learning for image recognition. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA. 2016. 770–778.
|
[25] |
See A, Liu PJ, Manning CD. Get to the point: Summarization with pointer-generator networks. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Vanconver, BC, Canada. 2017. 1073–1083.
|
[26] |
Lin CY. Rouge: A package for automatic evaluation of summaries. Proceedings of 2004 Workshop on Text Summarization Branches Out. Barcelona, Spain. 2004. 74–81.
|
[27] |
Kingma DP, Ba J. Adam: A method for stochastic optimization. Proceedings of the 3rd International Conference on Learning Representations. San Diego, CA, USA. 2015.
|
[28] |
Tai KS, Socher R, Manning CD. Improved semantic representations from tree-structured long short-term memory networks. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing. Beijing, China. 2015. 1556–1566.
|