AI资讯新闻榜单内容搜索-对齐

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 对齐
跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

在当今多模态领域,CLIP 模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。CLIP 通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间中,受到了广泛应用。

来自主题: AI技术研报
5252 点击    2024-11-27 14:41
将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。 北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。

来自主题: AI技术研报
6721 点击    2024-11-27 14:35
全球首个法律o1大模型发布,System2范式下慢思考法律专家|港科大&北大

全球首个法律o1大模型发布,System2范式下慢思考法律专家|港科大&北大

全球首个法律o1大模型发布,System2范式下慢思考法律专家|港科大&北大

OpenAI o1风格的推理大模型,有行业垂直版了。HK-O1aw,是由香港生成式人工智能研发中心(HKGAI)旗下AI for Reasoning团队(HKAIR) 联合北京大学对齐团队(PKU-Alignment Team)推出的全球首个慢思考范式法律推理大模型。

来自主题: AI资讯
3022 点击    2024-11-09 15:34
不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA

网络智能体旨在让一切基于网络功能的任务自动发生。比如你告诉智能体你的预算,它可以帮你预订酒店。既拥有海量常识,又能做长期规划的大语言模型(LLM),自然成为了智能体常用的基础模块。

来自主题: AI技术研报
3594 点击    2024-11-06 15:34
视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

视觉定位新SOTA!华人团队开源革新框架SegVG,边界框转为分割信号 | ECCV 2024

SegVG是一种新的视觉定位方法,通过将边界框注释转化为像素级分割信号来增强模型的监督信号,同时利用三重对齐模块解决特征域差异问题,提升了定位准确性。实验结果显示,SegVG在多个标准数据集上超越了现有的最佳模型,证明了其在视觉定位任务中的有效性和实用性。

来自主题: AI技术研报
2992 点击    2024-11-05 14:56
高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

来自中科大等单位的研究团队共同提出了用来有效评估多模态大模型预训练质量的评估指标 Modality Integration Rate(MIR),能够快速准确地评估多模态预训练的模态对齐程度。

来自主题: AI技术研报
3532 点击    2024-11-04 17:13