摘要
本发明公开一种基于因果关系感知的大语言模型微调方法及装置,涉及自然语言处理技术领域;针对古文理解的应用场景,对大语言模型进行微调,包括:步骤1:准备数据:构建繁体古文数据集,步骤2:准备预训练基础模型,步骤3:根据繁体古文数据集,形成微调数据集,并对微调数据集的数据进行扩展与处理,步骤4:加载预训练模型,根据微调数据集对预训练后的中文LLama模型基于因果关系进行微调,步骤5:对迭代微调后中文LLama模型进行评估优化,获得模型的性能指标,步骤6:根据模型的性能指标选择最佳模型,本发明通过因果分析识别训练数据中的因果关系,并以此为依据指导模型参数的高效更新。