AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

高效闭环控制是复杂系统控制的核心要求。传统控制方法受限于效率与适用性挑战;而新兴的扩散模型虽然表现出色,却难以满足高效闭环控制的要求。西湖大学研究团队最新提出的 CL-DiffPhyCon 框架,通过异步并行去噪技术,在闭环控制要求下,显著提升了控制效率和效果。论文最近被人工智能领域顶级会议 ICLR 2025 接收。

来自主题: AI资讯
6099 点击    2025-02-28 09:48
加速度计成本暴降1/400!哈工大首次突破精度、量程瓶颈|AAAI 2025 Oral

加速度计成本暴降1/400!哈工大首次突破精度、量程瓶颈|AAAI 2025 Oral

加速度计成本暴降1/400!哈工大首次突破精度、量程瓶颈|AAAI 2025 Oral

哈尔滨工业大学团队提出HEROS-GAN技术,通过生成式深度学习将低成本加速度计信号转化为高精度信号,突破其精度与量程瓶颈。该技术利用最优传输监督和拉普拉斯能量调制,使0.5美元的传感器达到200美元高端设备的性能,为工业、医疗等领域应用带来变革。

来自主题: AI技术研报
9740 点击    2025-02-27 15:21
AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,怎么破?「Think&Cite」让AI精准归因生成可信内容

AI引用正确率仅有4.2- 18.5%,用Deep Research就提高了引用正确率吗?似乎用Think&Cite框架的SG-MCTS和过程奖励机制PRM可以解决引用问题,生成可信内容。

来自主题: AI技术研报
11035 点击    2025-02-27 15:13
不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

当前的 AI 领域,可以说 Transformer 与扩散模型是最热门的模型架构。也因此,有不少研究团队都在尝试将这两种架构融合到一起,以两者之长探索新一代的模型范式,比如我们之前报道过的 LLaDA。不过,之前这些成果都还只是研究探索,并未真正实现大规模应用。

来自主题: AI技术研报
10956 点击    2025-02-27 14:40
DeepSeek今日连开3源!针对优化的并行策略,梁文峰本人参与开发

DeepSeek今日连开3源!针对优化的并行策略,梁文峰本人参与开发

DeepSeek今日连开3源!针对优化的并行策略,梁文峰本人参与开发

按时整活!DeepSeek开源周第四天,直接痛快「1日3连发」,且全都围绕一个主题:优化并行策略。

来自主题: AI技术研报
9214 点击    2025-02-27 11:28
数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

数据难清洗?试试ThinkJSON奖励算法,让DeepSeek-R1驱动Multi-Agent实现

在实际应用中,我们常常需要模型输出具有严格结构的数据,比如生物制药生产记录、金融交易报告或医疗健康档案等。这种结构化输出的需求在生物制造、金融服务、医疗健康等严格监管的领域尤为重要。

来自主题: AI技术研报
4546 点击    2025-02-27 10:25
何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

何恺明ResNet级神作,分形生成模型计算效率狂飙4000倍!清华校友一作

大自然的分形之美,蕴藏着宇宙的设计规则。刚刚,何恺明团队祭出「分形生成模型」,首次实现高分辨率逐像素建模,让计算效率飙升4000倍,开辟AI图像生成新范式。

来自主题: AI技术研报
10743 点击    2025-02-26 15:17
多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

尽管多模态大语言模型(MLLMs)取得了显著的进展,但现有的先进模型仍然缺乏与人类偏好的充分对齐。这一差距的存在主要是因为现有的对齐研究多集中于某些特定领域(例如减少幻觉问题),是否与人类偏好对齐可以全面提升MLLM的各种能力仍是一个未知数。

来自主题: AI技术研报
10846 点击    2025-02-26 14:07