
OpenAI 前首席科学家 Ilya 毕业演讲: AI 终将学会你能做的一切,我们该如何面对
OpenAI 前首席科学家 Ilya 毕业演讲: AI 终将学会你能做的一切,我们该如何面对Ilya 去哪了? 作为 OpenAI 联合创始人,Ilya Sutskever 一直是最靠近 AI 技术核心的人。如今他不再出现在 OpenAI 的发布会现场,而是选择重新开始。
Ilya 去哪了? 作为 OpenAI 联合创始人,Ilya Sutskever 一直是最靠近 AI 技术核心的人。如今他不再出现在 OpenAI 的发布会现场,而是选择重新开始。
本文内容整理自 ProtonBase CEO 王绍翾在 AICon 的主题演讲《Data Warebase: Instant Ingest-Transform-Explore-Retrieve for AI Applications》。
AI文本转语音已经进化到这种程度了吗?(⊙ˍ⊙)莎士比亚戏剧腔、体育赛事激情解说、沉浸式有声书等诸多玩法简直轻松拿捏,而且听起来确实人机傻傻分不清楚~
Nature never undertakes any change unless her interests are served by an increase in entropy. 自然界的任何变化,唯有在熵增符合其利益时方会发生——Max Planck
MedGemma是谷歌 “健康人工智能开发者基础”(Health AI Developer Foundations)计划的核心项目。基于 Gemma 3 架构, MedGemma提供多模态和纯文本两种模型变体,旨在降低医疗 AI 开发门槛。
笔记工具并不是一个传统意义上的热门投资赛道,在 Google Keep、Apple Notes、OneNote、Evernote 之外,只有 Notion 冲出了重围。
理想中的多模态大模型应该是什么样?十所顶尖高校联合发布General-Level评估框架和General-Bench基准数据集,用五级分类制明确了多模态通才模型的能力标准。当前多模态大语言模型在任务支持、模态覆盖等方面存在不足,且多数通用模型未能超越专家模型,真正的通用人工智能需要实现模态间的协同效应。
多模态大模型(Multimodal Large Language Models, MLLM)正迅速崛起,从只能理解单一模态,到如今可以同时理解和生成图像、文本、音频甚至视频等多种模态。正因如此,在AI竞赛进入“下半场”之际(由最近的OpenAI研究员姚顺雨所引发的共识观点),设计科学的评估机制俨然成为决定胜负的核心关键。
国产大模型进步的速度早已大大超出了人们的预期。年初 DeepSeek-R1 爆火,以超低的成本实现了部分超越 OpenAI o1 的表现,一定程度上让人不再过度「迷信」国外大模型。
随着生成式人工智能技术的飞速发展,合成数据正日益成为大模型训练的重要组成部分。未来的 GPT 系列语言模型不可避免地将依赖于由人工数据和合成数据混合构成的大规模语料。