Sam Altman 与 Jony Ive 联手探索的无屏 AI 硬件,正在被逐步揭开。供应链信息显示,这款产品并没有选择屏幕,而更像是一种可穿戴设备:体积接近 iPod Shuffle,可以放入口袋或随身佩戴;内置麦克风与摄像头,持续感知用户所处的真实环境,与之并肩工作,主动给出建议。
在「无屏、主动式 AI」这条路径上,中国公司其实已经先行一步。
12 月底,光帆科技在北京发布了 Lightwear AI 全感穿戴设备。这是一套由 AI 耳机、智能手表以及设计独特的充电盒组成的组合式终端。其中,AI 耳机也是全球首款具备视觉感知能力的主动式 AI 耳机。
三款设备实时协同,扮演一个「始终在场」的 AI 助理 ,与你一同观察世界,并主动参与日常生活与决策。

Lightwear AI 全感穿戴设备,这是一个由 AI 耳机、智能手表以及设计独特的充电盒组成的套装。
「喂,晓帆。」一名戴着耳机的女孩在超市里购物,拿起一瓶饮料,随口喊了一句。发布会现场,出现了这样一个场景。
「在呢。」 隐身在耳机里的 AI 助理被唤醒。
「这个在网上咋卖?」女孩问。AI 「看」了一眼她手中的商品:识别出商品名称,随即在网上搜索同款价格 ——500 毫升 15 瓶,57.9 元,更便宜。
在女孩的确认下,AI 直接完成下单。

耳机黑色部分就是 AI 的眼睛,为 AI 提供视觉感知的摄像头。
类似的主动能力,并不只体现在购物场景中。耳机盒内置 GPS,当用户快到家时,晓帆会主动提醒有快递要取。
在另一个更长任务的演示中,用户只用表达需求,AI 主动把事情完成,并告诉你结果,中间沟通个一两次就行。
整个流程从一句「XX 问你什么时候有空和王总吃饭」开始。晓帆自动检查日程冲突,发现约饭时间与一场产品会议重叠后,按用户要求调整了会议安排。
随后,它继续主动询问是否需要一并处理机票和酒店:机票按照「再早一点」的要求重新预订;酒店则直接按「常住的那一家」定了两晚。
这些场景,都映射出光帆科技试图呈现的主动式 AI 雏形。
发布会之后,这家创业公司也迅速受到关注。其创始人董红光是小米早期员工(第 89 号),长期负责操作系统与智能化相关核心工作,几乎贯穿了小米多个关键技术阶段。成立仅一年多时间,光帆科技便吸引了一批颇具分量的投资机构入局,也为这条「无屏、主动式 AI」路径增添了更多现实注脚。

在光帆科技压轴登场之前,仅在 2025 年这一年里,全球范围内就已密集涌现出一批 AI 硬件产品。阿里推出夸克 AI 眼镜,字节加码 AI 耳机、AI 手机,同时还有 AI Pin、戒指、项链、手环等更具「脑洞」的新形态。
AI 正在加速脱离屏幕,为自己寻找新的「肉身」。而这场 「物种大爆发」,并非偶然。
一方面,大模型能力持续跃迁,终于能够支撑复杂场景的理解,以及长链路任务的稳定执行(如 AI Agent);响应速度也被拉进「1 秒俱乐部」,交互体感开始逼近真人对话。
另一方面,推理与部署成本持续下探,再叠加中国在制造与供应链上的系统性优势,让中国玩家在这一轮 AI 硬件竞赛中显得尤为活跃。
但问题,也同样清晰。
大多数 AI 硬件已经足够贴身,却并不「始终在场」;看起来随时可用,却仍在等待一道清晰的命令。这依然是一种被动式智能,存在认知摩擦。
比如,你需要先掏出手机、打开 App,再用近乎「产品经理式」的方式,把真实需求拆解成一段段包含关键词的 Prompt;又或者,只有在你主动提问「这是什么?」时,AI 眼镜才会启动识别并给出反馈。至于耳机,更是高度依赖语音唤醒和明确指令。
主动式智能正试图消除的就是这种负担。它会持续进行云端计算,感知、理解用户所处的情境(「你现在在超市」)+ 记忆(「你记得要买果汁」),在合适的时机(「你路过商店」),在你尚未开口之前主动介入 ——「别忘了,顺手买果汁。」
事实上,谷歌的 Project Astra 一直在尝试构建这样一个主动的 AI 助手:拥有眼睛、耳朵和声音,能够与你共处、理解你正在经历的世界。这与光帆科技所追求的、带有「活人感」的 AI 助理 —— 全天候、全感知、主动智能 —— 在理念上高度一致。

只不过,Project Astra 尚未脱离手机;而光帆科技的选择,是让 AI 不再依附于手机、建立新的交互范式。但是,这样的 AI 硬件,究竟该如何搭建?
他们先从「AI 需要感知什么、怎么感知」出发,逐步决定是否要做加法、怎么加。
在硬件形态上,光帆科技没有选择已有手机做加法,或是更为主流的眼镜,而是对耳机进行「改造」,在上面装上摄像头。看似反直觉的选择背后,隐藏着他们的清晰认知:视觉感知,是主动智能的门票。
而要做到随时看、随时听、随时跟用户说话,手机和眼镜很难满足。
手机,是为触控交互而生,依赖显式唤醒、依赖用户主动将注意力集中到一块屏幕上,从根本上限制了 AI 的「持续观察力」。而且,手机大部分时间都放在口袋里,无法主动感知,用户也无法随时与之交流。
眼镜似乎更为自然,包括 AI 大厂和初创都很看好,但从长期来看,也并非「最优解」。
首先,在用户接受度上就不太友好,尤其是很多非近视人群根本没有戴眼镜的习惯,而且重。技术层面,精密结构下,电池容量、重量、功耗(尤其叠加 AR 后)之后,很难平衡。而一旦进入「持续视觉扫描」状态,摄像头正对路人,隐私与伦理压力几乎不可避免。
耳机就不同了。用户体量大、接受度高、佩戴自然,选择给耳机装上摄像头,并非简单的硬件堆砌,而是一套围绕感知能力的重构 —— 在耳机已有听觉感知的基础上,在左右耳塞各置一枚 200 万像素摄像头,实现双目视觉感知,并配合充电盒进行辅助定位。

这里的摄像头拍摄,不是给人看,是让 AI「看」,用以理解物理世界的空间与物体,支持「阅后即焚」,不必担心隐私问题。
只有 200 万像素,其实是蕴含着一个重要的「低像素哲学」:更强调「语义理解」而非「光学美感」,AI 无需欣赏 4K 画质的电影,只需要能分辨出用户手中拿的是橙汁、咖啡,还是药品,就足够了。

真正的关键在于 —— 只叠加了一个「视觉感知」,一切都因此而变得不同,因为,视觉是「主动性」的唯一基石。
主动智能的本质,在于主动感知环境、理解上下文并预测行动时机。而这一能力首先依赖对真实世界空间结构、物体关系与动态变化的持续感知,这些关键信息只有视觉能够提供。
而耳机「双目」的视觉高度,恰好与人类视野持平 —— 你看到什么,它就看到什么。于是,AI 可以实时理解你所处的情境,建立稳定的世界模型,判断你的关注焦点,形成「共同注意力」。
没有视觉,AI 无法真正理解世界;没有世界模型,就不可能有真正的主动协作。语音、记忆、推理,只有嵌入视觉框架,才会产生质变。
比如,当用户在路过超市时,AI「看到」用户所处的环境,其「记忆」模块才能被激活,主动发出提醒,「该买橙汁了。」
当用户看到心仪餐厅,想要进一步了解,发出「帮我看下这家餐厅怎么样」的提问指令时,AI 只有「看到」餐厅后,才能启动实现个性化口味比对、附近更优餐厅推荐、餐厅位置准确告知等。

要实现真正的主动式 AI,只「薅」一个硬件显然不够。
哪怕是最核心的耳机,也会不可避免地面临感知盲区 —— 比如身体出现异常,AI 根本无从得知。
更现实的问题是,人在睡觉、洗澡、刚起床等场景下,并不会持续佩戴耳机;一些关键信息,也很难长期依赖记忆来维持。
只有走向多感官协同,主动智能才可能真正成立,并逐步逼近全天候、全感知的状态。基于这一判断,在为耳机补上视觉能力之外,光帆科技还为系统引入了一块手表:耳机负责「听」和「看」,手表负责「显示」和「触控」。

首先,手表补齐了语音交互的短板。
那些并不适合通过声音完成的信息交互 —— 例如购物验证码、导航定位、简单提示 —— 可以直接在屏幕上呈现,降低打扰,也提升效率。
更关键的是,手表本身是一枚持续工作的身体传感器。
如果 AI 想要更主动、更贴近个体,就必须理解「人」的状态,而不仅仅是环境。通过持续采集心率、血氧、睡眠、压力等数据,AI 才能感知身体变化,并在合适的时刻给出针对性的提醒与建议。例如在运动中心率异常升高时,主动介入。

与此同时,光帆科技还对耳机充电盒进行了功能重构。
它内置 2020mAh 电池, eSIM 卡与定制化 AI 通信协议,可脱离手机直接联网,还内置高精度 GPS;同时集成算力、独立麦克风和扬声器,即便不佩戴耳机,也可以通过语音与 AI 进行交互。


充电盒上的独立麦克风。
因此,在洗澡、起床、阅读等「不想戴耳机」的场景下,用户依然可以与 AI 保持基本互动,例如询问当天的天气或日程安排。
这种分布式协作的思路,并非个案。
在 Meta 的 Orion 项目中,除了眼镜本体,还配套了一个手势追踪腕带,以及一个遥控器大小的计算模块,三者通过无线方式协同工作。其中,腕带用于读取与手势相关的神经信号,帮助 AI 更精准地理解用户意图。
从这个角度看,手表、耳机、眼镜,乃至充电盒,并不是彼此替代的竞争关系,而是在不同位置、不同维度,分别承担 AI 助理的「感官」与「分身」。它们分工协作、彼此补位,最终目标是一件事:让 AI 真正「在场」,并主动融入生活。
再往远处看,设备的边界只会持续模糊。光帆科技对主动智能的判断是:未来一定是多设备联动,由一个统一的 AI 大脑进行调度。基于自研操作系统,他们后续还将接入更多形态的终端 —— 例如脖挂、眼镜、项链等。
主动智能,不属于某一件硬件,而属于一个协同运作的分布式系统。
而做这样一套分布式 AI 硬件,并不是把耳机、手表、充电盒简单叠加,而是一场关于算力如何分配、设备如何低功耗通信,以及人机工程学如何取舍的极限运动。
其中最核心、最根本的问题是:如何让一个只有几克重的设备,承载起接近大模型的「灵魂」?
光帆科技的解法,是自研一套端云结合的操作系统:Lightware OS,不是把所有能力都塞进单一设备,而是建立一种类似「生物神经系统」的层级分工与调度机制。

最「聪明」、算力最强的大脑,放在云端,负责调用不同的大模型,完成语音与图像理解、意图识别,以及复杂推理与决策。
比如,结合你的位置、你看到的招牌,以及历史评价等信息,判断这是一家什么类型的餐厅、口碑如何、值不值得走进去 —— 这些都交给云端完成。
随身携带的充电盒,同样具备算力,但它并不负责「深度思考」,而是反应足够快、兜底足够稳。
内置 4G eSIM 保证「永不掉线」。它是流量的调度站,在毫秒级内判断请求类型(是查地图还是听歌),瞬间将音视频流推向云端。同时,在网络波动时利用本地算力进行「行为缓冲」,避免 AI 变成「人工智障」。
至于耳机,更像是全天候的「感官末梢」,负责「听」和「看」,只跑最轻量的 AI 任务(如语音唤醒、低像素物体轮廓识别),让这些能力在后台长时间「静默运行」,以极低功耗换取随时在场的体验。
另一个同样棘手的问题,是如何恰如其分地与用户交互。
一个缺乏分寸感的 AI 助手,很快就会从「贴心」变成「打扰」,最终被用户关闭。
因此,在 Lightware OS 中,系统层必须具备对场景的判断能力:用户是否忙碌?当前是否适合打断?这一次介入是否真的有价值?这种对「干扰优先级」的判断,无法只靠给大模型写一段 Prompt 解决,而必须被写进系统的底层逻辑中。
如何让这套分布式硬件长期、可靠地作为一个整体运行,同样是一道工程难题。
哪怕只看端侧,多设备之间的实时通信本身就已经足够复杂;更现实的是,单个设备内部往往也不止一颗芯片,芯片之间如何高效协作,直接决定了系统稳定性。这不是「写好一个程序」就能解决的问题,而是必须在硬件层、驱动层、通信层同时成立。
还有硬件工艺上的「极限平衡」。在耳机这样极度受限的形态中加入摄像头,意味着必须同时权衡体积、重量、续航、散热与佩戴舒适度。
最终,加入摄像头和更大电池后,单只耳机重量被控制在 11g,远低于常见智能眼镜约 40g 的重量,佩戴舒适度和行业头部的耳挂式耳机相当,并无明显不适和异物感。
这几年,CES 一直是「杀手级 AI 硬件」想象力的集中展示场。在众多方向中,个人穿戴与随身设备始终是焦点。而耳机这一高频入口,也正在被重新定义。
2026 年 1 月 6-9 日,光帆科技将携全球首款主动式 AI 耳机亮相 CES。下一代 AI 硬件的方向,或许正藏在这些看似熟悉、却正在被重新塑造的随身设备之中。

文章来自于“机器之心”,作者 “吴昕、Youli”。
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0