
指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务
指令跟随大比拼!Meta发布多轮多语言基准Multi-IF:覆盖8种语言,超4500种任务Meta全新发布的基准Multi-IF涵盖八种语言、4501个三轮对话任务,全面揭示了当前LLM在复杂多轮、多语言场景中的挑战。所有模型在多轮对话中表现显著衰减,表现最佳的o1-preview模型在三轮对话的准确率从87.7%下降到70.7%;在非拉丁文字语言上,所有模型的表现显著弱于英语。
Meta全新发布的基准Multi-IF涵盖八种语言、4501个三轮对话任务,全面揭示了当前LLM在复杂多轮、多语言场景中的挑战。所有模型在多轮对话中表现显著衰减,表现最佳的o1-preview模型在三轮对话的准确率从87.7%下降到70.7%;在非拉丁文字语言上,所有模型的表现显著弱于英语。
最近,Meta Gen AI 部门的数据科学总监 Rohit Patel 听到了你的心声。他用加法和乘法 —— 小学二年级的数学知识,深入浅出地解析了大模型的基础原理。
Meta的视频版分割一切——Segment Anything Model 2(SAM 2),又火了一把。
Meta最近开源了一个7B尺寸的Spirit LM的多模态语言模型,能够理解和生成语音及文本,可以非常自然地在两种模式间转换,不仅能处理基本的语音转文本和文本转语音任务,还能捕捉和再现语音中的情感和风格。
10月28日,The Information报道称,Meta正在研发自己的“AI驱动搜索引擎”,以减少对谷歌和微软Bing搜索的依赖。Meta的搜索,将通过生成式AI对用户输入的关键词或者prompt进行摘要和总结。
现在,随便丢给机械手一个陌生物体,它都可以像人类一样轻松拿捏了——
传统的训练方法通常依赖于大量人工标注的数据和外部奖励模型,这些方法往往受到成本、质量控制和泛化能力的限制。因此,如何减少对人工标注的依赖,并提高模型在复杂推理任务中的表现,成为了当前的主要挑战之一。
30多年的数学猜想首次获得了进展!Meta等学者提出的PatternBoost,使用Transformer构造了一个反例,反驳了一个已悬而未决30年的猜想。是否所有数学问题都适合机器学习技术?这样的未来太令人期待了。
今年拿了腾讯 Al Lab(青云计划”), 字节跳动(Seed) 的 offer, 国外有之前实习的 Sony Research 和 Yamaha 的 return offer, 也有正在面试的 Adobe 和 Meta。 这些工作机会的方向都和我的博士工作完全 match, 没有转方向的痛苦。最后, 我接了字节 Seed 团队的 offer, 结束秋招。
现在 workflow 也有了自己的智能助手啦! MetaGPT 开源的 AFLOW 可以完全自动地构建和优化 workflow 了!