摘要:近年来, 随着软件开发领域代码规模持续扩大、功能需求与系统架构日趋复杂, 自动化工具已成为提升开发效率的核心支撑, 其中生成式大语言模型(large language model, LLM)在软件开发领域得到了广泛应用. 尽管LLM能显著缩短开发周期, 但研究表明, LLM生成的代码常存在安全漏洞, 可能引发系统风险. 已有研究发现LLM的输出结果会受提示语言差异的影响, 然而针对不同提示语言生成代码安全性的研究与评价仍较为匮乏. 本文旨在探究输入英文提示语言与中文提示语言对代码安全性的影响, 并对其进行系统性评估. 通过在LLM中分别使用英文和中文文本指示代码生成, 分析生成代码的安全性差异. 实验结果表明, 当以英文作为提示语言输入时, LLM生成的代码中出现的漏洞和bug数量相对较少; 而以中文作为提示语言输入时, 生成的代码则更容易出现安全漏洞.