AI资讯新闻榜单内容搜索-MBZUAI

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MBZUAI
ACL 2026|告别冗长思维链!Laser用「概率叠加」重塑多模态大模型隐式推理

ACL 2026|告别冗长思维链!Laser用「概率叠加」重塑多模态大模型隐式推理

ACL 2026|告别冗长思维链!Laser用「概率叠加」重塑多模态大模型隐式推理

为了解决这一痛点,由 MBZUAI、复旦大学、中国人民大学高瓴人工智能学院以及哈佛大学联合组成的研究团队,提出了一种名为 Laser 的全新隐式视觉推理范式。该研究从认知心理学中汲取灵感,引入了 “Forest-before-Trees” 的认知机制,通过动态窗口对齐学习(DWAL),首次实现了在隐空间中维持视觉特征的 “概率叠加” 状态。

来自主题: AI技术研报
6390 点击    2026-05-08 14:07
大模型 “准确率悬崖” 被证实,科学家发现模型单次处理容量上限,多智能体成破局关键

大模型 “准确率悬崖” 被证实,科学家发现模型单次处理容量上限,多智能体成破局关键

大模型 “准确率悬崖” 被证实,科学家发现模型单次处理容量上限,多智能体成破局关键

近日,来自阿联酋穆罕默德·本·扎耶德人工智能大学 MBZUAI 和保加利亚 INSAIT 研究所的研究人员发现一个针对大模型单次推理的“法诺式准确率上限”,借此不仅揭示了单次生成范式的根本性脆弱点,也揭示了“准确率悬崖”这一现象。

来自主题: AI技术研报
8683 点击    2025-10-20 14:02
Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒!

Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒!

Qwen又立功,全球最快开源模型诞生,超2000 tokens/秒!

全球最快的开源大模型来了——速度达到了每秒2000个tokens! 虽然只有320亿参数(32B),吞吐量却是超过典型GPU部署的10倍以上的那种。它就是由阿联酋的穆罕默德·本·扎耶德人工智能大学(MBZUAI)和初创公司G42 AI合作推出的K2 Think。

来自主题: AI资讯
10146 点击    2025-09-10 23:15
全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生

全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生

全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生

在阿联酋 2031 国家人工智能战略的驱动下,穆罕默德・本・扎耶德人工智能大学(MBZUAI) 正以 AI 专业学术全球排名前十的硬实力,重塑 AI 教育格局。这所由阿联酋总统创立的学术引擎,不仅承载着中东向科技转型的雄心,更以丰厚奖学金覆盖所有学位项目,为全球优秀人才铺就一条通往未来的黄金大道。

来自主题: AI资讯
9287 点击    2025-09-05 10:56
自动化、可复现,基于大语言模型群体智能的多维评估基准Decentralized Arena来了

自动化、可复现,基于大语言模型群体智能的多维评估基准Decentralized Arena来了

自动化、可复现,基于大语言模型群体智能的多维评估基准Decentralized Arena来了

Maitrix.org 是由 UC San Diego, John Hopkins University, CMU, MBZUAI 等学术机构学者组成的开源组织,致力于发展大语言模型 (LLM)、世界模型 (World Model)、智能体模型 (Agent Model) 的技术以构建 AI 驱动的现实。

来自主题: AI技术研报
6835 点击    2024-10-22 14:38
FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型

自回归训练方式已经成为了大语言模型(LLMs)训练的标准模式, 今天介绍一篇来自阿联酋世界第一所人工智能大学MBZUAI的VILA实验室和CMU计算机系合作的论文,题为《FBI-LLM: Scaling Up Fully Binarized LLMs from Scratch via Autoregressive Distillation》

来自主题: AI技术研报
8500 点击    2024-07-28 23:25
Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

近日,朱泽园 (Meta AI) 和李远志 (MBZUAI) 的最新研究《语言模型物理学 Part 3.3:知识的 Scaling Laws》用海量实验(50,000 条任务,总计 4,200,000 GPU 小时)总结了 12 条定律,为 LLM 在不同条件下的知识容量提供了较为精确的计量方法。

来自主题: AI资讯
6556 点击    2024-04-10 19:11