AI资讯新闻榜单内容搜索-3

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 3
韩国AI社交升温?3款产品月流水达百万美元

韩国AI社交升温?3款产品月流水达百万美元

韩国AI社交升温?3款产品月流水达百万美元

最近《新京报》曝光的“国内首起 AI 服务提供者涉黄获刑案件”,为明显降温的国内 AI 社交市场又蒙上了一层阴霾。但隔壁的韩国市场似乎呈现了一种全然不同的面貌。

来自主题: AI资讯
7736 点击    2026-02-12 10:34
硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

思考token在精不在多。Yuan 3.0 Flash用RAPO+RIRM双杀过度思考,推理token砍75%,网友们惊呼:这就是下一代AI模型的发展方向!

来自主题: AI技术研报
9892 点击    2026-02-11 14:43
ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

在当今的大模型后训练(Post-training)阶段,DPO(直接偏好优化) 凭借其无需训练独立 Reward Model 的优雅设计和高效性,成功取代 PPO 成为业界的 「版本之子」,被广泛应用于 Llama-3、Mistral 等顶流开源模型的对齐中。

来自主题: AI技术研报
6592 点击    2026-02-11 13:58
来一手Qwen-Image-2.0实测,好像还不错?!

来一手Qwen-Image-2.0实测,好像还不错?!

来一手Qwen-Image-2.0实测,好像还不错?!

BUBBLE 2026 — ISSUE #18 家人们, 马上没几天快过年了,明显各个厂商已经开始疯狂卷了。 上周到现在,让我们来算算有多少东西了, 5.3 Codex,4.6 Opus, 可灵3.0

来自主题: AI产品测评
9490 点击    2026-02-11 12:43
海外顶级风投a16z关于AI市场的最新深度分析

海外顶级风投a16z关于AI市场的最新深度分析

海外顶级风投a16z关于AI市场的最新深度分析

软件行业可能正在经历一场比从命令行到图形界面更剧烈的变革?最近听了一场 a16z 的 David George 分享的关于 AI 市场的深度分析,我被一组数据震撼到了:最快增长的 AI 公司正在以 693% 的年增长率扩张,而他们在销售和营销上的支出却远低于传统软件公司。

来自主题: AI技术研报
7930 点击    2026-02-11 10:55
比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

比肩OpenAI Simple Codex,中国团队Feeling AI闯入Terminal-Bench全球第二!

就在这个被 Anthropic 和 OpenAI 视为衡量 Agent 真实工程能力全球权威基准 Terminal-Bench 2.0 榜单上,中国团队 Feeling AI 凭借 CodeBrain-1,搭载最新 GPT-5.3-Codex 底座模型,一举冲到 72.9%(70.3%) 并跻身全球排行榜第二,成为榜单前 10 中唯一的中国团队。

来自主题: AI资讯
10006 点击    2026-02-10 18:51
GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

GLM-5架构曝光,智谱两日涨60%:采用DeepSeek同款稀疏注意力

不管Pony Alpha是不是智谱的,下一代旗舰大模型GLM-5都要来了。GLM-5采用了DeepSeek-V3/V3.2架构,包括稀疏注意力机制(DSA)和多Token预测(MTP),总参数量745B,是上一代GLM-4.7的2倍。

来自主题: AI资讯
8592 点击    2026-02-10 16:27
0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

0.3B参数,600MB内存!腾讯混元实现产业级2Bit量化,端侧模型小如手机App

等效参数量仅0.3B,内存占用仅600MB,更适合端侧部署还带思维链的模型来了。腾讯混元最新推出面向消费级硬件场景的“极小”模型HY-1.8B-2Bit,体量甚至比常用的一些手机应用还小。

来自主题: AI技术研报
6105 点击    2026-02-10 14:28