
JHU提出最强ToM方法,AutoToM横扫五大基准
JHU提出最强ToM方法,AutoToM横扫五大基准如何让 AI 像人一样思考?如何拥有像人一样的认知能力和社会能力?
如何让 AI 像人一样思考?如何拥有像人一样的认知能力和社会能力?
几天前,AI 驱动的演示工具 Tome 宣布,将在四月底前关闭 Tome Slides 功能,并转型至销售领域(「搞定交易,而非幻灯片」:面向销售的 AI 助手)。
硅谷投资人Tom Davidson的硬核长文预测,给出了惊人结论:全栈的AI大爆炸,或将率先发生在中国!而当芯片规模扩大1万倍时,AI将逼近物理极限。
大语言模型(LLM)近年来凭借训练时扩展(train-time scaling)取得了显著性能提升。然而,随着模型规模和数据量的瓶颈显现,测试时扩展(test-time scaling)成为进一步释放潜力的新方向。
Magma是一个新型多模态基础模型,能够理解和执行多模态任务,适用于数字和物理环境:通过标记集合(SoM)和标记轨迹(ToM)技术,将视觉语言数据转化为可操作任务,显著提升了空间智能和任务泛化能力。
Manus居然成功火到国外了,内销转出口了?今天开始,在X和Reddit上的外国网友中,Manus的讨论声量开始变大了!拿到邀请码的歪果网友实测后赞叹:Manus太好用了。而各种开源复现项目也如雨后春笋一般冒出,人气持续爆棚。
谷歌联合创始人、全球第七富豪拉里・佩奇 (Larry Page) 已经成立了一个 AI 创业公司。据外媒 The Information 本周四报道,拉里・佩奇成立了名为 Dynatomics 的创业公司,旨在用人工智能颠覆制造业。
硬件媒体Tom‘s Hardware带来开年最新热议:DeepSeek甚至绕过了CUDA,使用更底层的编程语言做优化。这一次是DeepSeek-V3论文中的更多细节,被人挖掘出来。
Decagon 专注于 AI for Customer Support 领域,致力于用 AI Agent 彻底改变客户服务体验。他们打造的不是简单的聊天机器人,而是能不断进化的 AI Agent 引擎,能够真正理解客户的需求并高效地解决问题。
2024又是AI精彩纷呈的一年。LLM不再是AI舞台上唯一的主角。随着预训练技术遭遇瓶颈,GPT-5迟迟未能问世,从业者开始从不同角度寻找突破。以o1为标志,大模型正式迈入“Post-Training”时代;开源发展迅猛,Llama 3.1首次击败闭源模型;中国本土大模型DeepSeek V3,在GPT-4o发布仅7个月后,用 1/10算力实现了几乎同等水平。