
DeepSeek惊醒上海,输不起的人工智能之战
DeepSeek惊醒上海,输不起的人工智能之战上海拥有全国1/3的人工智能重点企业、41%的智能芯片产能和日均处理的20PB级城市数据,却在2025年伊始遭遇了尴尬的叩问: 一家总部杭州的初创公司DeepSeek横空出世,其开源大模型的开发者调用量在一周内突破微软亚洲研究院十年累积量,直接促成全球170个国家开发者建立起47万个衍生模型
上海拥有全国1/3的人工智能重点企业、41%的智能芯片产能和日均处理的20PB级城市数据,却在2025年伊始遭遇了尴尬的叩问: 一家总部杭州的初创公司DeepSeek横空出世,其开源大模型的开发者调用量在一周内突破微软亚洲研究院十年累积量,直接促成全球170个国家开发者建立起47万个衍生模型
前两天我也连更两篇,写了怎么用硅基流动的API、秘塔联网搜索调用R1。虽然这俩体验起来都很不错,可很多人还是觉得DeepSeek官方版的最好,就想用官方的,确实这也没毛病。但是DeepSeek官方那边,这两天当然还是很卡。
当我们惊叹于Deepseek的妙语连珠时,是否正目睹硅基系统对人类语言本源的复刻?那在服务器集群中奔流的矩阵运算,与人脑皮层间跳跃的神经电波,究竟共享着怎样的“语言密码”?
节后第一周,联想在接入DeepSeek并预告与DeepSeek“讨论更多深入合作可能性”后,股价大涨31.53%。截至2025年2月7日休市,联想总市值已来到1515.85亿港元,创下历史新高。
就在不久前,飞书也宣布接入了 DeepSeek-R1,这相当于在我们日常熟悉的办公软件中又探索出了一种全新的 AI 交互方式。
DeepSeek的含金量还在上升,一个半个周末过去发生这些大事:国家超算互联网平台上线DeepSeek-R1,最高支持671B的满血版。达摩院玄铁芯片成功适配DeepSeek-R1系列蒸馏模型,在RISC-V架构CPU和端侧平台打开新的应用空间。
「慢思考」(Slow-Thinking),也被称为测试时扩展(Test-Time Scaling),成为提升 LLM 推理能力的新方向。近年来,OpenAI 的 o1 [4]、DeepSeek 的 R1 [5] 以及 Qwen 的 QwQ [6] 等顶尖推理大模型的发布,进一步印证了推理过程的扩展是优化 LLM 逻辑能力的有效路径。
xAI、谷歌DeepMind和Anthropic的CEO们纷纷对DeepSeek的技术创新性提出质疑,认为其并未带来实质性的科学突破。AI大佬纷纷泼冷水,到底是技术讨论还是各怀目的?
我前几天也一直在写DeepSeek的使用教程,想选出尽量最简单最好上手的方式让大家都能舒服的体验这波热潮。但是我发现,自第一天干崩硅基流动、第二天干崩秘塔AI搜索后,涌现出来的三方平台越来越多了,写不完,根本写不完。
DreamTech,由牛津大学、南京大学等顶尖高校研究者组成的AI创业团队,在春节期间公布了他们在3D生成方向上的新工作成果——Neural4D 2.0(初版名为Direct3D),提出了创新性的3D Assembly Generation算法思路及更高效的模型架构