AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

简单的任务,传统的Transformer却错误率极高。Meta FAIR团队重磅推出多token注意力机制(MTA),精准捕捉复杂信息,带来模型性能飞升!

来自主题: AI技术研报
5707 点击    2025-04-04 14:14
DeepMind核心论文禁发6个月,Transformer级研究锁死!CEO:不满意就走人

DeepMind核心论文禁发6个月,Transformer级研究锁死!CEO:不满意就走人

DeepMind核心论文禁发6个月,Transformer级研究锁死!CEO:不满意就走人

DeepMind内部研究要「封箱」了!为保谷歌在AI竞赛领先优势,生成式AI相关论文设定6个月禁发期。不仅如此,创新成果不发,Gemini短板不提。

来自主题: AI资讯
7102 点击    2025-04-02 15:10
腾讯押注非Transformer!推理模型混合Mamba也能搞,深度思考也能秒回

腾讯押注非Transformer!推理模型混合Mamba也能搞,深度思考也能秒回

腾讯押注非Transformer!推理模型混合Mamba也能搞,深度思考也能秒回

首个基于混合Mamba架构的超大型推理模型来了!就在刚刚,腾讯宣布推出自研深度思考模型混元T1正式版,并同步在腾讯云官网上线。对标o1、DeepSeek R1之外,值得关注的是,混元T1正式版采用的是Hybrid-Mamba-Transformer融合模式——

来自主题: AI资讯
8998 点击    2025-03-22 11:12
谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌团队发现了全新Scaling Law!新方法DiLoCo被证明更好、更快、更强,可在多个数据中心训练越来越大的LLM。

来自主题: AI技术研报
5361 点击    2025-03-16 16:09
何恺明LeCun暴击Transformer命门,9行代码砍掉归一化层!性能反而更强了?

何恺明LeCun暴击Transformer命门,9行代码砍掉归一化层!性能反而更强了?

何恺明LeCun暴击Transformer命门,9行代码砍掉归一化层!性能反而更强了?

Transformer架构迎来历史性突破!刚刚,何恺明LeCun、清华姚班刘壮联手,用9行代码砍掉了Transformer「标配」归一化层,创造了性能不减反增的奇迹。

来自主题: AI技术研报
5882 点击    2025-03-15 14:11
精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。

来自主题: AI技术研报
7082 点击    2025-03-10 09:35
AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。

来自主题: AI资讯
8283 点击    2025-03-10 00:28