AI资讯新闻榜单内容搜索-DeepSeeK

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: DeepSeeK
2025 AI Cloud 100 China榜单发布:6个赛道,34家新上榜,DeepSeek、Manus上榜

2025 AI Cloud 100 China榜单发布:6个赛道,34家新上榜,DeepSeek、Manus上榜

2025 AI Cloud 100 China榜单发布:6个赛道,34家新上榜,DeepSeek、Manus上榜

6月22日,在 AGI Playground 2025 大会上,主办方靖亚资本、联合主办方 Founder Park、崔牛会一同正式发布了 2025 AI Cloud 100 China 榜单。

来自主题: AI资讯
5917 点击    2025-06-26 09:45
把「Her」装进一张卡里

把「Her」装进一张卡里

把「Her」装进一张卡里

这条人机交互的进化之路,出门问问从未真正放弃。今年,大模型基础能力再次实现飞跃,像 ChatGPT、DeepSeek、豆包这样的 AI 工具,正在成为越来越多职场人工作中的常用助手。

来自主题: AI资讯
8152 点击    2025-06-26 09:43
Claude勒索率96%、连DeepSeek也“黑化”了?Anthropic实测曝AI自保本能:勒索、撒谎,甚至“让人类去死”

Claude勒索率96%、连DeepSeek也“黑化”了?Anthropic实测曝AI自保本能:勒索、撒谎,甚至“让人类去死”

Claude勒索率96%、连DeepSeek也“黑化”了?Anthropic实测曝AI自保本能:勒索、撒谎,甚至“让人类去死”

AI不一定是“邪恶”的,但它也远非“中立无害”。 过去几年里,我们习惯了通过 ChatGPT 等 AI 产品提问、聊天、生成代码。

来自主题: AI技术研报
8159 点击    2025-06-26 09:28
7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

7B小模型超越DeepSeek-R1:模仿人类教师,弱模型也能教出强推理LLM | Transformer作者团队

Thinking模式当道,教师模型也该学会“启发式”教学了—— 由Transformer作者之一Llion Jones创立的明星AI公司Sakana AI,带着他们的新方法来了!

来自主题: AI技术研报
8172 点击    2025-06-25 10:55
医院AI招标热!山西临汾市人民医院发布DeepSeek千万级采购大单!

医院AI招标热!山西临汾市人民医院发布DeepSeek千万级采购大单!

医院AI招标热!山西临汾市人民医院发布DeepSeek千万级采购大单!

6月23日,山西临汾市人民医院发布了《基于DeepSeek AI大模型的智慧医疗应用系统建设项目》,预算金额为1569.264万元,预计采购时间为2025年9月。临汾市人民医院拟采购基于DeepSeek的智慧医疗项目建设一套,其建设内容包含:

来自主题: AI资讯
7829 点击    2025-06-24 21:00
罗永浩:新AI产品3个月后见,梁文峰建议我“靠嘴吃饭”

罗永浩:新AI产品3个月后见,梁文峰建议我“靠嘴吃饭”

罗永浩:新AI产品3个月后见,梁文峰建议我“靠嘴吃饭”

罗永浩透露,自己的团队曾试了美国大量AI邮件工具项目,虽然他们客户端和网页版都接入了AI,但都做得很差,而在中国也很少有人做这个方向。此外,在DeepSeek爆火之前,罗永浩还见了其创始人梁文峰,梁文峰给他介绍了很多AI圈的资源,也解答了团队遇到的技术问题。

来自主题: AI资讯
7697 点击    2025-06-22 20:52
英伟达笑到最后!训练2000步,1.5B逆袭7B巨兽,Scaling真来了

英伟达笑到最后!训练2000步,1.5B逆袭7B巨兽,Scaling真来了

英伟达笑到最后!训练2000步,1.5B逆袭7B巨兽,Scaling真来了

强化学习可以提升LLM推理吗?英伟达ProRL用超2000步训练配方给出了响亮的答案。仅15亿参数模型,媲美Deepseek-R1-7B,数学、代码等全面泛化。

来自主题: AI技术研报
6471 点击    2025-06-22 16:32
知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

大语言模型(LLMs)在决策场景中常因贪婪性、频率偏差和知行差距表现欠佳。研究者提出强化学习微调(RLFT),通过自我生成的推理链(CoT)优化模型,提升决策能力。实验表明,RLFT可增加模型探索性,缩小知行差距,但探索策略仍有改进空间。

来自主题: AI技术研报
6127 点击    2025-06-22 11:34