
如果想认真做AI,就要把硬件做出来
如果想认真做AI,就要把硬件做出来OpenAI至少已经是第二次与苹果旧将合作了。上次是Humane的AI Pin,以惨败收场;这次是io,已经有了原型,目标出货1亿台。
OpenAI至少已经是第二次与苹果旧将合作了。上次是Humane的AI Pin,以惨败收场;这次是io,已经有了原型,目标出货1亿台。
普林斯顿大学与字节 Seed、北大、清华等研究团队合作提出了 MMaDA(Multimodal Large Diffusion Language Models),作为首个系统性探索扩散架构的多模态基础模型,MMaDA 通过三项核心技术突破,成功实现了文本推理、多模态理解与图像生成的统一建模。
就在刚刚,OpenAI 正式官宣,将以接近 65 亿美元(折合人民币 468.16 亿元)的价格收购由 OpenAI CEO Sam Altman 与前苹果首席设计官 Jony Ive 联合创办的 AI 设备初创公司 io。
谷歌又放新大招了,将图像生成常用的“扩散技术”引入语言模型,12秒能生成1万tokens。
刚刚,昇腾两大技术创新,突破速度瓶颈重塑AI推理。FusionSpec创新的框架设计配合昇腾强大的计算能力,将投机推理框架耗时降至毫秒级,打破延迟魔咒。OptiQuant支持灵活量化,让推理性价比更高。
第一个 AI 程序员 Devin 的公司,已经在用Devin 来构建「Devin」了。
笔记工具并不是一个传统意义上的热门投资赛道,在 Google Keep、Apple Notes、OneNote、Evernote 之外,只有 Notion 冲出了重围。
英伟达CEO黄仁勋,在Computex 2025演讲中官宣:中国台湾,将建起首台世界级的巨型AI超算,以及全新的英伟达办公室!此外,最强AI芯片GB300、个人超算DGX Station、NVLink Fusion等,也都是此次推出的最新亮点。
微软最近与Salesforce Research联合发布了一篇名为《Lost in Conversation》的研究,说当前最先进的LLM在多轮对话中表现会大幅下降,平均降幅高达39%。这一现象被称为对话中的"迷失"。文章分析了各大模型(包括Claude 3.7-Sonnet、Deepseek-R1等)在多轮对话中的表现差异,还解析了模型"迷失"的根本原因及有效缓解策略。
自回归(AR)范式凭借将语言转化为离散 token 的核心技术,在大语言模型领域大获成功 —— 从 GPT-3 到 GPT-4o,「next-token prediction」以简单粗暴的因果建模横扫语言领域。