AI资讯新闻榜单内容搜索-小模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 小模型
Prompt-R1:让Agent代替你和GPT多轮交互!

Prompt-R1:让Agent代替你和GPT多轮交互!

Prompt-R1:让Agent代替你和GPT多轮交互!

这篇论文提出了一种颠覆性的协作模式,即通过强化学习训练一个“小模型”作为智能代理(Agent),让它自动学会如何写出完美的Prompt,一步步引导任何一个“大模型”完成复杂推理,实现了真正的“AI指挥AI”。

来自主题: AI技术研报
8046 点击    2025-11-04 16:54
别再迷信大模型!吴恩达亲授AI秘籍:小模型+边缘计算=财富密码

别再迷信大模型!吴恩达亲授AI秘籍:小模型+边缘计算=财富密码

别再迷信大模型!吴恩达亲授AI秘籍:小模型+边缘计算=财富密码

吴恩达指出,当下大模型的卷生卷死,谁是赢家不重要。关键的是谁能构建可信的AI应用,谁才能成为真正塑造未来之人,顺便成为下一个通过AI财富自由者。

来自主题: AI资讯
10600 点击    2025-10-31 10:25
AI在线强化学习“边做边学”,斯坦福团队让7B小模型性能飙升,甚至超越GPT-4o

AI在线强化学习“边做边学”,斯坦福团队让7B小模型性能飙升,甚至超越GPT-4o

AI在线强化学习“边做边学”,斯坦福团队让7B小模型性能飙升,甚至超越GPT-4o

斯坦福等新框架,用在线强化学习让智能体系统“以小搏大”,领先GPT-4o—— AgentFlow,是一种能够在线优化智能体系统的新范式,可以持续提升智能体系统对于复杂问题的推理能力。

来自主题: AI技术研报
6044 点击    2025-10-25 14:03
推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

推理提速4倍!莫纳什、浙大提出动态拼接,大小模型智能协作

针对「大模型推理速度慢,生成token高延迟」的难题,莫纳什、北航、浙大等提出R-Stitch框架,通过大小模型动态协作,衡量任务风险后灵活选择:简单任务用小模型,关键部分用大模型。实验显示推理速度提升最高4倍,同时保证高准确率。

来自主题: AI技术研报
6564 点击    2025-10-18 12:21
公告:Elastic (NYSE: ESTC) 完成对Jina AI的收购

公告:Elastic (NYSE: ESTC) 完成对Jina AI的收购

公告:Elastic (NYSE: ESTC) 完成对Jina AI的收购

纽约时间 2025 年 10 月 9 日早上 9 点,Elastic (NYSE: ESTC) 在其官网宣布完成了对 Jina AI 的收购。ina AI 原 CEO 肖涵将在 Elastic 担任 VP of AI,负责 AI 方向的战略和研发。由肖涵带领的核心Jina团队将继续在向量模型、重排器、Reader 和小模型上推进搜索 AI 的发展。

来自主题: AI资讯
9359 点击    2025-10-10 13:12
陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

陈丹琦新作:大模型强化学习的第三条路,8B小模型超越GPT-4o

结合RLHF+RLVR,8B小模型就能超越GPT-4o、媲美Claude-3.7-Sonnet。陈丹琦新作来了。他们提出了一个结合RLHF和RLVR优点的方法,RLMT(Reinforcement Learning with Model-rewarded Thinking,基于模型奖励思维的强化学习)。

来自主题: AI技术研报
9510 点击    2025-09-28 23:03
刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽

打破思维惯性,「小模型」也能安全又强大!北大-360联合实验室发布TinyR1-32B模型,以仅20k数据的微调,实现了安全性能的里程碑式突破,并兼顾出色的推理与通用能力。

来自主题: AI资讯
7726 点击    2025-09-28 09:54
刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

刚刚,英伟达新模型上线!4B推理狂飙53倍,全新注意力架构超越Mamba 2

Jet-Nemotron是英伟达最新推出的小模型系列(2B/4B),由全华人团队打造。其核心创新在于提出后神经架构搜索(PostNAS)与新型线性注意力模块JetBlock,实现了从预训练Transformer出发的高效架构优化。

来自主题: AI技术研报
7955 点击    2025-08-26 19:34