
70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?
70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。
Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。
下一代 AI 的发展,似乎遇到了难以逾越的瓶颈。去年 12 月,OpenAI 在 ChatGPT 两周年期间连续发布了 12 天,我们期待的新一代大模型 GPT-5 却从头到尾没有踪影。
大模型低精度训练和推理是大模型领域中的重要研究方向,旨在通过降低模型精度来减少计算和存储成本,同时保持模型的性能。因为在大模型研发成本降低上的巨大价值而受到行业广泛关注 。
CoreWeave从最初的加密货币挖矿业务起家,现已成为AI云计算领域的领军企业。
本期专访我们有幸邀请到了Poppaws.AI的CEO何东阳,跟我们分享他如何从清华休学到成为AI创业者,最终拿到数百万投资的成长故事
随着大语言模型(LLM)技术的快速发展,单一AI智能体已经展现出强大的问题解决能力。然而,在面对复杂的企业级应用场景时,单一智能体的能力往往显得捉襟见肘。
本文介绍了一套针对于低比特量化的 scaling laws。
目前关于 RLHF 的 scaling(扩展)潜力研究仍然相对缺乏,尤其是在模型大小、数据组成和推理预算等关键因素上的影响尚未被系统性探索。 针对这一问题,来自清华大学与智谱的研究团队对 RLHF 在 LLM 中的 scaling 性能进行了全面研究,并提出了优化策略。
继微软云(Azure )和谷歌云(Google Cloud)之后,亚马逊旗下AWS也在近期发布了自己的基础大语言模型Nova。
领头羊企业OpenAI刚获得66亿美元融资,估值达到1570亿美元,成为究极独角兽。紧跟其后,xAI、Perplexity、Anthropic等明星创企也开始新一轮的大额融资,xAI的估值更是冲向了450亿美元。三年过去,生成式AI热潮经久不衰,依然是当下最热门投资方向。