一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法
申请号:CN202511416625
申请日期:2025-09-30
公开号:CN120893051B
公开日期:2025-12-05
类型:发明专利
摘要
本发明公开了一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法,包括对样本代码数据集进行函数级注意力计算,生成高注意力函数代码数据集,从高注意力函数代码数据集的每个函数级注意力源码文件中挑选最高注意力函数并补全编译依赖项形成高注意力代码片段。通对样本代码数据集进行函数级注意力计算,借助降维算法提升注意力计算效率;挑选高注意力函数并补全编译依赖项,使得高注意力函数能够顺利编译,提高隐蔽性;该方法具有显著的跨模型适用性和多编程语言兼容性,能够有效降低大语言模型在代码漏洞检测任务上的准确率,具有提升漏洞代码隐蔽性的优点。
技术关键词
注意力
大语言模型
漏洞
审计工具
样本
数据
降维算法
标记
层级
指标
分词
索引
定义