科学界炸锅,AI两天得出十年研究成果,谷歌“AI联合科学家”出手了
科学界炸锅,AI两天得出十年研究成果,谷歌“AI联合科学家”出手了从漫长等待到极速突破
从漫长等待到极速突破
谷歌Gemini 2.0代码助手免费,每月18万次代码补全,支持超大上下文窗口。微软Copilot语音与深度思考功能,同样免费!OpenAI也免费推出了GPT-4o mini高级语音模式。
AI co-scientist系统基于Gemini 2.0开发,能够协助科研人员生成新的研究假设、制定实验方案,并通过自我改进提升结果质量。在生物医学应用中,AI co-scientist成功预测了药物再利用方向、提出新的治疗靶点,并解释了抗菌耐药机制。
DeepSeek 的开源周已经进行到了第三天(前两天报道见文末「相关阅读」)。今天开源的项目名叫 DeepGEMM,是一款支持密集型和专家混合(MoE)GEMM 的 FP8 GEMM 库,为 V3/R1 的训练和推理提供了支持,在 Hopper GPU 上可以达到 1350+ FP8 TFLOPS 的计算性能。
DeepSeek 开源周的第三天,带来了专为 Hopper 架构 GPU 优化的矩阵乘法库 — DeepGEMM。这一库支持标准矩阵计算和混合专家模型(MoE)计算,为 DeepSeek-V3/R1 的训练和推理提供强大支持,在 Hopper GPU 上达到 1350+FP8 TFLOPS 的高性能。
多位接近字节的人士对硅星人透露,字节的AI核心部门Seed正在快速调整定位和调兵遣将。刚刚从谷歌加入字节跳动的AI大牛、参与了Gemini开发的Google Fellow吴永辉博士,将成为Seed新的负责人,替换原LLM团队及Seed总负责人朱文佳,团队内部正在梳理调整汇报关系。
谷歌团队发布LLM硬核技术教科书,从「系统视图」揭秘LLM Scaling的神秘面纱。Jeff Dean强调书中藏着谷歌最强AI模型Gemini训练的更多信息。
AI协作科学家在测试中提供了新颖的见解。
Scale AI 等提出的新基准再次暴露了大语言模型的弱点。
问题挺严重,大模型说的话可不能全信。