AI资讯新闻榜单内容搜索-2

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 2
独家|这家具身核心零部件半年完成三轮上亿融资,出货量和口碑均持续领跑行业

独家|这家具身核心零部件半年完成三轮上亿融资,出货量和口碑均持续领跑行业

独家|这家具身核心零部件半年完成三轮上亿融资,出货量和口碑均持续领跑行业

近日,南京因克斯智能科技有限公司(以下简称“因克斯”)宣布,继2024年10月完成首轮天使轮融资之后,已连续完成两轮新的融资,新投资方包括锦秋基金、德石投资、深创投集团、复星创富等知名投资机构,同时绿洲资本、水木创投、拉尔夫创投等天使轮投资方持续追加投资。明论资本担任独家财务顾问。

来自主题: AI资讯
8632 点击    2025-06-17 10:13
大模型“六小虎”人事动荡,半年12位高管离职

大模型“六小虎”人事动荡,半年12位高管离职

大模型“六小虎”人事动荡,半年12位高管离职

百川智能、零一万物、智谱核心高管出走,京东悄悄挖人。 智东西6月16日报道,今年上半年,“大模型六小虎”中的智谱、MiniMax、零一万物、百川智能、阶跃星辰5家企业,共被曝13位AI高管变动,其中有12位出走、1位新入职

来自主题: AI资讯
8194 点击    2025-06-17 10:10
搜索智能体RAG落地不佳?UIUC开源s3,仅需2.4k样本,训练快效果好

搜索智能体RAG落地不佳?UIUC开源s3,仅需2.4k样本,训练快效果好

搜索智能体RAG落地不佳?UIUC开源s3,仅需2.4k样本,训练快效果好

当前,Agentic RAG(Retrieval-Augmented Generation)正逐步成为大型语言模型访问外部知识的关键路径。但在真实实践中,搜索智能体的强化学习训练并未展现出预期的稳定优势。一方面,部分方法优化的目标与真实下游需求存在偏离,另一方面,搜索器与生成器间的耦合也影响了泛化与部署效率。

来自主题: AI技术研报
6514 点击    2025-06-17 09:46
20瓦就能运行下一代AI?科学家瞄上了神经形态计算

20瓦就能运行下一代AI?科学家瞄上了神经形态计算

20瓦就能运行下一代AI?科学家瞄上了神经形态计算

「西部世界」真的要来了!科学家们正试图为AI装上人类大脑。最新进展由美国国家实验室主导。

来自主题: AI资讯
7169 点击    2025-06-16 17:16
高考数学斩获139分!小米7B模型比肩Qwen3-235B、OpenAI o3

高考数学斩获139分!小米7B模型比肩Qwen3-235B、OpenAI o3

高考数学斩获139分!小米7B模型比肩Qwen3-235B、OpenAI o3

上上周的 2025 高考已经落下了帷幕!在人工智能领域,各家大模型向数学卷发起了挑战。

来自主题: AI技术研报
8178 点击    2025-06-16 17:04
Google 这款免费 AI,连 OpenAI 都在夸

Google 这款免费 AI,连 OpenAI 都在夸

Google 这款免费 AI,连 OpenAI 都在夸

和那些看着酷但鸡肋的 AI,可不一样,它是真的管用。 在不久前结束的 Google I/O 上,Google 悄咪咪地在安卓和 iOS 同时上线了一款“旧”app——NotebookLM。发布当日,不到 24 小时,它就夺得苹果 App Store 中生产工具类别的第二名

来自主题: AI资讯
7266 点击    2025-06-16 16:58
CVPR 2025 Highlight | 国科大等新方法破译多模态「黑箱」,精准揪出犯错元凶

CVPR 2025 Highlight | 国科大等新方法破译多模态「黑箱」,精准揪出犯错元凶

CVPR 2025 Highlight | 国科大等新方法破译多模态「黑箱」,精准揪出犯错元凶

AI 决策的可靠性与安全性是其实际部署的核心挑战。当前智能体广泛依赖复杂的机器学习模型进行决策,但由于模型缺乏透明性,其决策过程往往难以被理解与验证,尤其在关键场景中,错误决策可能带来严重后果。因此,提升模型的可解释性成为迫切需求。

来自主题: AI技术研报
7626 点击    2025-06-16 16:31
技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

本文深入剖析 MiniCPM4 采用的稀疏注意力结构 InfLLM v2。作为新一代基于 Transformer 架构的语言模型,MiniCPM4 在处理长序列时展现出令人瞩目的效率提升。传统Transformer的稠密注意力机制在面对长上下文时面临着计算开销迅速上升的趋势,这在实际应用中造成了难以逾越的性能瓶颈。

来自主题: AI技术研报
6108 点击    2025-06-16 15:24