一种基于大语言模型的双阶段微调训练方法及装置

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
一种基于大语言模型的双阶段微调训练方法及装置
申请号:CN202510145586
申请日期:2025-02-10
公开号:CN120045749A
公开日期:2025-05-27
类型:发明专利
摘要
本申请提供了一种基于大语言模型的双阶段微调训练方法及装置,方法包括:获取相关性判断数据集和相关性选择数据集,其中,相关性判断数据集和相关性选择数据集均包含查询、正样本和负样本构成的三元组,相关性选择数据集的复杂度高于相关性判断数据集的复杂度;采用相关性判断数据集对预训练完成的大语言模型进行初步微调,其中,初步微调用于使大语言模型掌握基本的相关性判断能力;采用相关性选择数据集对初步微调后的大语言模型进行再次微调,其中,再次微调用于使大语言模型掌握复杂环境下的相关性判别能力;将微调完成后的大语言模型部署到信息检索系统中。本申请能够提高信息检索的精确性。
技术关键词
大语言模型 标签模板 信息检索系统 三元组 数据 样本 复杂度 通信接口 可读存储介质 存储器 处理器 阶段 训练装置 关系 模块 格式 计算机