AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

「古董」GPU也能跑DeepSeek同款GRPO!显存只需1/10,上下文爆涨10倍

开源微调神器Unsloth带着黑科技又来了:短短两周后,再次优化DeepSeek-R1同款GRPO训练算法,上下文变长10倍,而显存只需原来的1/10!

来自主题: AI技术研报
3844 点击    2025-03-11 10:42
有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

有关智能体/Agent,和上下文协议/MCP的一些概念,以及为什么它重要

由于语言泛化,今天出现了很有趣的现象:「Agent 是什么」,这个问题没有了标准的定义。一个常见的观点是:Agent 是一种让 AI 以类似人的工作和思考方式,来完成一系列的任务。一个 Agent 可以是一个 Bot,也可以是多个 Bot 的协同。

来自主题: AI技术研报
9339 点击    2025-03-10 11:33
AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。

来自主题: AI资讯
8290 点击    2025-03-10 00:28
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7185 点击    2025-03-06 09:54
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
5015 点击    2025-02-28 14:11
AI助手集体免费,微软OpenAI谷歌火力全开!Gemini 18万次代码补全白送

AI助手集体免费,微软OpenAI谷歌火力全开!Gemini 18万次代码补全白送

AI助手集体免费,微软OpenAI谷歌火力全开!Gemini 18万次代码补全白送

谷歌Gemini 2.0代码助手免费,每月18万次代码补全,支持超大上下文窗口。微软Copilot语音与深度思考功能,同样免费!OpenAI也免费推出了GPT-4o mini高级语音模式。

来自主题: AI资讯
7080 点击    2025-02-27 16:42
大模型「记忆断片」成历史!AI初创全新Zep系统,知识图谱破解上下文诅咒

大模型「记忆断片」成历史!AI初创全新Zep系统,知识图谱破解上下文诅咒

大模型「记忆断片」成历史!AI初创全新Zep系统,知识图谱破解上下文诅咒

Zep,一个为大模型智能体提供长期记忆的插件,能将智能体的记忆组织成情节,从这些情节中提取实体及其关系,并将它们存储在知识图谱中,从而让用户以低代码的方式为智能力构建长期记忆。

来自主题: AI技术研报
9307 点击    2025-02-26 14:53
月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

月之暗面Kimi的技术一点都不落后。

2 月 18 日,月之暗面发布了一篇关于稀疏注意力框架 MoBA 的论文。MoBA 框架借鉴了 Mixture of Experts(MoE)的理念,提升了处理长文本的效率,它的上下文长度可扩展至 10M。并且,MoBA 支持在全注意力和稀疏注意力之间无缝切换,使得与现有的预训练模型兼容性大幅提升。

来自主题: AI技术研报
7248 点击    2025-02-23 11:38
语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

近年来,大语言模型(LLMs)取得了突破性进展,展现了诸如上下文学习、指令遵循、推理和多轮对话等能力。目前,普遍的观点认为其成功依赖于自回归模型的「next token prediction」范式。

来自主题: AI技术研报
7132 点击    2025-02-17 14:37