AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
速递|Reddit创始人押注840万!Palabra攻克AI语音翻译“拟真实时”难题

速递|Reddit创始人押注840万!Palabra攻克AI语音翻译“拟真实时”难题

速递|Reddit创始人押注840万!Palabra攻克AI语音翻译“拟真实时”难题

一家名为Palabra AI 的初创公司正在开发 AI 语音翻译引擎,致力于解决教学大型语言模型(LLMs)理解多种语言这一颇具挑战性的难题。

来自主题: AI资讯
5888 点击    2025-08-16 15:43
GPT-5、Grok 4、o3 Pro都零分,史上最难AI评测基准换它了

GPT-5、Grok 4、o3 Pro都零分,史上最难AI评测基准换它了

GPT-5、Grok 4、o3 Pro都零分,史上最难AI评测基准换它了

前沿 AI 模型真的能做到博士级推理吗? 前段时间,谷歌、OpenAI 的模型都在数学奥林匹克(IMO)水平测试中达到了金牌水准,这样的表现让人很容易联想到 LLM 是不是已经具备了解决博士级科研难题的推理能力?

来自主题: AI资讯
6932 点击    2025-08-15 20:41
速递|Anthropic仅收购Humanloop创始团队及工程师,曾融资790万美金,AI安全“特种部队”就位

速递|Anthropic仅收购Humanloop创始团队及工程师,曾融资790万美金,AI安全“特种部队”就位

速递|Anthropic仅收购Humanloop创始团队及工程师,曾融资790万美金,AI安全“特种部队”就位

Anthropic 已收购 Humanloop 的联合创始人和大部分团队成员,该公司是一个专注于提示管理、LLM 评估和可观测性的平台,此举旨在强化其企业战略。

来自主题: AI资讯
5162 点击    2025-08-15 11:54
LLM幻觉第一次被定义:你必须掌握的3个理论和能上手的4套工程解法

LLM幻觉第一次被定义:你必须掌握的3个理论和能上手的4套工程解法

LLM幻觉第一次被定义:你必须掌握的3个理论和能上手的4套工程解法

幻觉,作为AI圈家喻户晓的概念,这个词您可能已经听得耳朵起茧了。我们都知道它存在,也普遍接受了它似乎无法根除,是一个“老大难”问题。但正因如此,一个更危险的问题随之而来:当我们对幻觉的存在习以为常时,我们是否也开始对它背后的系统性风险变得麻木?我们是真的从第一性原理上理解了它,还是仅仅在用一个又一个的补丁(比如RAG)来被动地应对它?

来自主题: AI资讯
6072 点击    2025-08-15 11:03
告别Transformer,重塑机器学习范式:上海交大首个「类人脑」大模型诞生

告别Transformer,重塑机器学习范式:上海交大首个「类人脑」大模型诞生

告别Transformer,重塑机器学习范式:上海交大首个「类人脑」大模型诞生

当前 GPT 类大语言模型的表征和处理机制,仅在输入和输出接口层面对语言元素保持可解释的语义映射。相比之下,人类大脑直接在分布式的皮层区域中编码语义,如果将其视为一个语言处理系统,它本身就是一个在全局上可解释的「超大模型」。

来自主题: AI技术研报
6059 点击    2025-08-14 11:11
大型语言模型稳定强化学习的新路径:几何平均策略优化GMPO

大型语言模型稳定强化学习的新路径:几何平均策略优化GMPO

大型语言模型稳定强化学习的新路径:几何平均策略优化GMPO

近年来,强化学习(RL)在大型语言模型(LLM)的微调过程中,尤其是在推理能力提升方面,取得了显著的成效。传统的强化学习方法,如近端策略优化(Proximal Policy Optimization,PPO)及其变种,包括组相对策略优化(Group Relative Policy Optimization,GRPO),在处理复杂推理任务时表现出了强大的潜力。

来自主题: AI技术研报
5316 点击    2025-08-13 16:03
腾讯AI Lab|让AI左右互搏,无需人类数据也能自学成才!

腾讯AI Lab|让AI左右互搏,无需人类数据也能自学成才!

腾讯AI Lab|让AI左右互搏,无需人类数据也能自学成才!

当前训练强大的大语言模型(LLM),就像是培养一个顶尖运动员,需要大量的、由专家(人类标注员)精心设计的训练计划和教材(高质量的标注数据)。

来自主题: AI资讯
6616 点击    2025-08-13 11:55
从物竞天择到智能进化,首篇自进化智能体综述的ASI之路

从物竞天择到智能进化,首篇自进化智能体综述的ASI之路

从物竞天择到智能进化,首篇自进化智能体综述的ASI之路

近年来,大语言模型(LLM)已展现出卓越的通用能力,但其核心仍是静态的。面对日新月异的任务、知识领域和交互环境,模型无法实时调整其内部参数,这一根本性瓶颈日益凸显。

来自主题: AI技术研报
5710 点击    2025-08-13 11:32
AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

长久以来我们都知道在Prompt里塞几个好例子能让LLM表现得更好,这就像教小孩学东西前先给他做个示范。在Vibe coding爆火后,和各种代码生成模型打交道的人变得更多了,大家也一定用过上下文学习(In-Context Learning, ICL)或者检索增强生成(RAG)这类技术来提升它的表现。

来自主题: AI技术研报
7048 点击    2025-08-13 10:45
LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考

随着推理大模型和思维链的出现与普及,大模型具备了「深度思考」的能力,不同任务的泛用性得到了很大的提高。

来自主题: AI资讯
5609 点击    2025-08-12 15:58