
2行代码与DeepSeek语音对话,1分钟不到一毛钱,所有大模型都能开口说话
2行代码与DeepSeek语音对话,1分钟不到一毛钱,所有大模型都能开口说话起猛了,DeepSeek开口说话了。而且是超低延迟实时秒回,还可以随时打断的那种,先来看一段VCR:DeepSeek以及其他任意大模型接入这样的高质量对话引擎,全程只需要两行代码。
起猛了,DeepSeek开口说话了。而且是超低延迟实时秒回,还可以随时打断的那种,先来看一段VCR:DeepSeek以及其他任意大模型接入这样的高质量对话引擎,全程只需要两行代码。
继DeepSeek 之后,一款由国内开发的通用AI Agent产品也引发热议——
当你凝视AI,AI也在凝视你。
杜克大学计算进化智能中心的最新研究给出了警示性答案。团队提出的 H-CoT(思维链劫持)的攻击方法成功突破包括 OpenAI o1/o3、DeepSeek-R1、Gemini 2.0 Flash Thinking 在内的多款高性能大型推理模型的安全防线:在涉及极端犯罪策略的虚拟教育场景测试中,模型拒绝率从初始的 98% 暴跌至 2% 以下,部分案例中甚至出现从「谨慎劝阻」到「主动献策」的立场反转。
32B小模型在超硬核「时间线索」推理谜题中,一举击败了o1、o3-mini、DeepSeek-R1,核心秘密武器便是GRPO,最关键的是训练成本暴降100倍。
随着 DeepSeek-R1 的流行与 AI4Math 研究的深入,大模型在辅助形式化证明写作方面的需求日益增长。作为数学推理最直接的应用场景,形式化推理与验证(formal reasoning and verification),也获得持续关注。
自媒体的反应堪称狂热:“通用Agent终于实现了!”“这是继DeepSeek之后的又一技术革命!”这样夸张的赞誉随处可见。从Benchmark来看,它的表现确实非常亮眼,在GAIA测试中超越了之前的各种Agent以及OpenAI的DeepResearch。
短短六个月,面向消费者的生成式 AI 市场已发生翻天覆地的变化。一些产品迅速崭露头角,另一些却止步不前,还有意外的黑马一跃成为行业领跑者。
见识过32B的QwQ追平671的DeepSeek R1后——刚刚,7B的DeepSeek蒸馏Qwen模型超越o1又是怎么一回事?新方法LADDER,通过递归问题分解实现AI模型的自我改进,同时不需要人工标注数据。
仅仅过了一天,阿里开源的新一代推理模型便能在个人设备上跑起来了!昨天深夜,阿里重磅开源了参数量 320 亿的全新推理模型 QwQ-32B,其性能足以比肩 6710 亿参数的 DeepSeek-R1 满血版。