
MM-Eureka:极少数据实现多模态推理的R1-Zero时刻
MM-Eureka:极少数据实现多模态推理的R1-Zero时刻尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。
尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。
洛杉矶初创公司 Moonvalley 推出了一款 AI 视频生成模型,该公司声称这是少数基于公开许可(非版权)数据训练的模型之一。
近年来,大语言模型 LLMs 在多种任务上的卓越表现已得到广泛认可。然而,要实现其高效部署,精细的超参数优化至关重要。为了探究最佳超参数的规律,我们开展了大规模的实证研究,通过在不同配置上进行网格搜索,我们揭示了一套通用的最优超参数缩放定律(Optimal Hyperparameter Scaling Law)。
就在刚刚,OpenAI 发布了一系列专为构建 AI Agents 设计的新工具和 API,帮助开发者更容易创建能自动完成任务的 AI Agents(智能体)。
在32道高等数学测试中,LLM表现出色,平均能得分90.4(按百分制计算)。GPT-4o和Mistral AI更是几乎没错!向量计算、几何分析、积分计算、优化问题等,高等AI模型轻松拿捏。研究发现,再提示(Re-Prompting)对提升准确率至关重要。
AGI明年降临?清华人大最新研究给狂热的AI世界泼了一盆冷水:人类距离真正的AGI,还有整整70年!若要实现「自主级智能,需要惊人的10²⁶参数,所需GPU总价竟是苹果市值的4×10⁷倍!
相比让Alexa重新焕发生机,AI可能会产生的幻觉或只是个小问题。
谷歌发布了1000亿文本-图像对数据集,是此前类似数据集的10倍,创下新纪录!基于新数据集,发现预训练Scaling Law,虽然对模型性能提升不明显,但对于小语种等其他指标提升明显。让ViT大佬翟晓华直呼新发现让人兴奋!
如果把人工智能的发展趋势向前推演,几乎每个国家、每个公司最终都可能基于美国技术栈或中国技术栈,去构建人工智能技术。
Mistral AI,这家法国公司是 AI 助手 Le Chat 和多个基础模型背后的力量组成,被官方视为法国最有前途的科技初创企业之一,且可以说是能与 OpenAI 竞争的欧洲公司。然而,与其 60 亿美元的估值相比,其全球市场份额仍相对较低。