
今日最热论文:Scaling Law后继乏力,量化也不管用,AI大佬齐刷刷附议
今日最热论文:Scaling Law后继乏力,量化也不管用,AI大佬齐刷刷附议几十万人关注,一发表即被行业大佬评为“这是很长时间以来最重要的论文”。
几十万人关注,一发表即被行业大佬评为“这是很长时间以来最重要的论文”。
最近几天,AI 社区都在讨论同一篇论文。 UCSD 助理教授 Dan Fu 说它指明了大模型量化的方向。
昨天,The Information 的一篇文章让 AI 社区炸了锅。
Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是「越大越好」,而是找出Scaling的对象究竟应该是什么。他自曝,SSI在用全新方法扩展预训练。而各方巨头改变训练范式后,英伟达GPU的垄断地位或许也要打破了。
半年两次大融资后,这家具身智能黑马再次获得融资!作为柏睿资本首次投资的具身智能企业,千寻智能不仅拥有出身自伯克利系联创,在技术、硬件、商业化上,也让人极有信心。
奥特曼在OpenAI伦敦开发者日上的最新采访,终于完整释出! 40分钟的采访过程中,奥特曼除了聊OpenAI未来模型发展方向、Agent、和最尊敬的竞争对手(就是此前碎片式走漏风声的几个问题)外,还就Scaling Law、半导体供应链、基础模型竞争成本、该雇佣什么年龄段的员工等十多个问题进行了快问快答。
2022年诞生的ChatGPT,已经在相当程度上实现了大模型的Scaling law(尺度定律)和通用能力涌现。
OpenAI o1 的发布,再次给 AI 领域带来了一场地震。 o1 能像人类一样「思考」复杂问题,拥有优秀的通用推理能力。在未经专门训练的情况下,o1 能够直接拿下数学奥赛金牌,甚至能在博士级别的科学问答环节上超越人类专家。
o1 作为 OpenAI 在推理领域的最新模型,大幅度提升了 GPT-4o 在推理任务上的表现,甚至超过了平均人类水平。o1 背后的技术到底是什么?OpenAI 技术报告中所强调的强化学习和推断阶段的 Scaling Law 如何实现?