
原来Scaling Law还能被优化?Meta这招省token又提效
原来Scaling Law还能被优化?Meta这招省token又提效2017 年,一篇《Attention Is All You Need》论文成为 AI 发展的一个重要分水岭,其中提出的 Transformer 依然是现今主流语言模型的基础范式。尤其是在基于 Transformer 的语言模型的 Scaling Law 得到实验验证后,AI 领域的发展更是进入了快车道。
2017 年,一篇《Attention Is All You Need》论文成为 AI 发展的一个重要分水岭,其中提出的 Transformer 依然是现今主流语言模型的基础范式。尤其是在基于 Transformer 的语言模型的 Scaling Law 得到实验验证后,AI 领域的发展更是进入了快车道。
用AI给自己看病正在成为新趋势,但目前我们仍需要人类医生。身体不适,求医十年,医生没找出原因,ChatGPT 给分析出来了。这是一位 Reddit 网友刚刚分享的个人经历。
上周六,我受邀参加了由 InfoQ 举办的 全球人工智能开发与应用大会(AICon),在北京国际会议中心,做了一场题为《AI 时代如何做独立开发》的分享。
三个前沿AI能融合成AGI吗?Sakana AI提出Multi-LLM AB-MCTS方法,整合o4-mini、Gemini-2.5-Pro与DeepSeek-R1-0528模型,在推理过程中动态协作,通过试错优化生成过程,有效融合群体AI智慧。
你能想象律师审查合同的时间从几周缩短到一小时以内吗?这听起来像天方夜谭,但刚刚获得580万美元种子轮融资的Crosby正在让这个看似不可能的事情成为现实。这家由红杉美国领投的公司不是在为律师开发AI工具,而是直接用AI技术重新构建了一家律师事务所本身
继提示工程之后,「上下文工程」又红了!这一概念深得Karpathy等硅谷大佬的喜欢,堪称「全新的氛围编程」。而智能体成败的关键,不在于精湛的代码,而是上下文工程。
现在再讨论 AI 写作,多少有点没劲:prompt 真的越来越像咒语了,越来越像一些神秘不可洞察的玄学技巧。这导致使用 AI 写东西的过程,不管是写什么类型的文字,过程都跟做法似的:赌指令能不能触发出一些好的生成。同时还得用大量的指令,去掉「AI味」。
今年4月猫箱更换负责人后,这款国内主流AI社交应用的变化还没完。 一大直观改变在于用户增长的停滞。今年年初开始,国内几大主力AI社交应用投放量和新增下载量均持续明显下滑。
移动端侧模型迎来“新王”。
罗宾汉大撒币,OpenAI狂摇头 OpenAI还没上市,怎么已经有“山寨股票”先行一步了? 当地时间7月2日,OpenAI的官方X(前推特)账号发布了一个义正词严的公告: “这些‘OpenAI 代币’并非 OpenAI 股权。我们没有与 Robinhood 合作,没有参与此事,也不为其背书。任何 OpenAI 股权的转让都需要我们的批准——我们从未批准过任何转让。请谨慎操作。”