
Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重
Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过的任务,比如MATH、HumanEval和ARC-Challenge等,性能也都取得了提升。
Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过的任务,比如MATH、HumanEval和ARC-Challenge等,性能也都取得了提升。
发表于昨天的论文《Agent Laboratory: Using LLM Agents as Research Assistants》对于科研界具有划时代意义,过去几周才能完成的科研任务现在仅需20分钟到一两个小时左右(不同LLM),花费2-13个美金的Token即可完成!
在过去一年中,基座大模型技术的快速迭代推动了 AI 搜索的演进,主要体现在以下几个方面:
Reddit 作为一个充满活力的全球社区平台,里面有非常丰富的兴趣小组和只有想不到没有找不到的话题,类似国内的百度贴吧、豆瓣,我们不仅可以从中发现灵感、验证想法,还可以找到对应的客户,非常适合验证创业想法。
随着Gemini家族的日趋完善、阵容的发展壮大,谷歌大模型将可代表用户完成更多现实工作。
o3在超难推理任务ARC-AGI上的成绩,属实给人类带来了不少震撼。 但有人专门研究了它不会做的题之后,有了更有趣的发现—— o3之所以不会做这些题,原因可能不是因为太难,而是题目的规模太大了。
着实有点Amazing啊。
AI缺乏情商,需设计训练数据提高社交认知能力。 当你觉得AI不够好用时,很可能是因为它还不够“懂”你。
近期,知名研究机构 Appier AI Research 和国立台湾大学,联合发表了一篇论文
上周五,亚马逊研究奖(Amazon Research Awards,ARA)公布了最新一期来自 10 所大学的 10 名获奖者。