AI资讯新闻榜单内容搜索-伯克利

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 伯克利
4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

4500美元复刻DeepSeek神话,1.5B战胜o1-preview只用RL!训练细节全公开

只用4500美元成本,就能成功复现DeepSeek?就在刚刚,UC伯克利团队只用简单的RL微调,就训出了DeepScaleR-1.5B-Preview,15亿参数模型直接吊打o1-preview,震撼业内。

来自主题: AI资讯
6983 点击    2025-02-11 15:26
UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

基于一段文本提问时,人类和大模型会基于截然不同的思维模式给出问题。大模型喜欢那些需要详细解释才能回答的问题,而人类倾向于提出更直接、基于事实的问题。

来自主题: AI技术研报
4674 点击    2025-01-29 13:32
六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

六大维度,LLM「问题生成」首次正面PK人类!伯克利等发布最新研究

研究人员首次探讨了大型语言模型(LLMs)在问题生成任务中的表现,与人类生成的问题进行了多维度对比,结果发现LLMs倾向于生成需要较长描述性答案的问题,且在问题生成中对上下文的关注更均衡。

来自主题: AI技术研报
6925 点击    2025-01-27 13:26
全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

全球掀DeepSeek复现狂潮!硅谷巨头神话崩塌,30刀见证啊哈时刻

就在刚刚,网上已经出现了一波复现DeepSeek的狂潮。UC伯克利、港科大、HuggingFace等纷纷成功复现,只用强化学习,没有监督微调,30美元就能见证「啊哈时刻」!全球AI大模型,或许正在进入下一分水岭。

来自主题: AI资讯
7734 点击    2025-01-26 13:30
UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。

来自主题: AI技术研报
7150 点击    2025-01-23 13:19
USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

LLM 强大的语言能力,使其被广泛部署于 LLM 应用系统(LLM-integrated applications)中。此时,LLM 需要访问外部数据(如文件,网页,API 返回值)来完成任务。

来自主题: AI技术研报
5080 点击    2024-12-18 09:36
对话肖特特:从伯克利到PromptAI创业,发明创造下一代视觉智能

对话肖特特:从伯克利到PromptAI创业,发明创造下一代视觉智能

对话肖特特:从伯克利到PromptAI创业,发明创造下一代视觉智能

通用语言模型率先起跑,但通用视觉模型似乎迟到了一步。究其原因,语言中蕴含大量序列信息,能做更深入的推理;而视觉模型的输入内容更加多元、复杂,输出的任务要求多种多样,需要对物体在时间、空间上的连续性有完善的感知,传统的学习方法数据量大、经济属性上也不理性...... 还没有一套统一的算法来解决计算机对空间信息的理解。

来自主题: AI资讯
8530 点击    2024-12-16 10:48
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
8284 点击    2024-11-30 16:51