AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

GPT-4.1深夜登场,中科大校友领队!百万上下文编程惊人,GPT-4.5三个月后淘汰

OpenAI重磅发布的GPT-4.1系列模型,带来了编程、指令跟随和长上下文处理能力的全面飞跃!由中科大校友Jiahui Yu领衔的团队打造。与此同时,备受争议的GPT-4.5将在三个月后停用,GPT-4.1 nano则以最小、最快、最便宜的姿态强势登场。

来自主题: AI资讯
9421 点击    2025-04-15 08:53
Cursor 迎来了强大的对手,Augment Code实测

Cursor 迎来了强大的对手,Augment Code实测

Cursor 迎来了强大的对手,Augment Code实测

根据官方介绍,Augment Agent 是首个转为大型代码库工作的专业软件工程师设计的 AI 编码助手,上下文支持 200K ,也就是 20 万的 token 啊。

来自主题: AI资讯
8448 点击    2025-04-14 11:10
大模型进入千万上下文时代,意味着什么?

大模型进入千万上下文时代,意味着什么?

大模型进入千万上下文时代,意味着什么?

今天在各大信息渠道看到 Llama4 发布的消息,一上来就放出三个模型,具体能力这里就不在赘述,相信大家已经多少看到不少介绍了。

来自主题: AI资讯
5967 点击    2025-04-07 09:51
刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

原生多模态Llama 4终于问世,开源王座一夜易主!首批共有两款模型Scout和Maverick,前者业界首款支持1000万上下文单H100可跑,后者更是一举击败了DeepSeek V3。目前,2万亿参数巨兽还在训练中。

来自主题: AI技术研报
8046 点击    2025-04-06 18:06
新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

新注意力让大模型上下文内存占用砍半!精度不减还能加速2倍

大模型同样的上下文窗口,只需一半内存就能实现,而且精度无损? 前苹果ASIC架构师Nils Graef,和一名UC伯克利在读本科生一起提出了新的注意力机制Slim Attention。

来自主题: AI资讯
5834 点击    2025-03-17 19:52
北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

长文本任务是当下大模型研究的重点之一。在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。

来自主题: AI技术研报
7334 点击    2025-03-17 16:04
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
8304 点击    2025-03-16 13:28
在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在 ChatGPT 爆火两年多的时间里,大语言模型的上下文窗口长度基准线被拉升,以此为基础所构建的长 CoT 推理、多 Agent 协作等类型的高级应用也逐渐增多。

来自主题: AI技术研报
7066 点击    2025-03-12 14:53
「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!

来自主题: AI技术研报
3840 点击    2025-03-11 10:42