AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
Black Forest震撼开源FLUX.1 Kontext [dev]:媲美GPT-4o的图像编辑

Black Forest震撼开源FLUX.1 Kontext [dev]:媲美GPT-4o的图像编辑

Black Forest震撼开源FLUX.1 Kontext [dev]:媲美GPT-4o的图像编辑

前段时间,沉寂了很久的Flux官方团队Black Forest Labs发布了新模型:FLUX.1 Kontext,这是一套支持生成与编辑图像的流匹配(flow matching)模型。FLUX.1 Kontext不仅支持文生图,还实现了上下文图像生成功能,可以同时使用文本和图像作为提示词,并能无缝提取修改视觉元素,生成全新且协调一致的画面。

来自主题: AI技术研报
7858 点击    2025-06-27 12:36
最新必看!谷歌版Claude Code发布, Gemini CLI大方开源、每分钟 60 次请求,每天 1000 次!

最新必看!谷歌版Claude Code发布, Gemini CLI大方开源、每分钟 60 次请求,每天 1000 次!

最新必看!谷歌版Claude Code发布, Gemini CLI大方开源、每分钟 60 次请求,每天 1000 次!

刚刚谷歌推出了 Gemini CLI,一个开源的 AI Agent,把 Gemini 的能力直接带到你的终端里。可以把它看作是谷歌版的 Claude Code。最香的是,这玩意儿开源、免费用,背后是带百万上下文的最强 Gemini 模型。

来自主题: AI资讯
8034 点击    2025-06-26 01:01
提示词工程、RAG之后,LangChain:上下文工程开始火了!

提示词工程、RAG之后,LangChain:上下文工程开始火了!

提示词工程、RAG之后,LangChain:上下文工程开始火了!

AI 时代,你可能听说过提示词工程、RAG、记忆等术语。但是很少有人提及上下文工程(context engineering)。

来自主题: AI资讯
6090 点击    2025-06-25 16:45
降维打击Cursor!Augment正在抢走中级程序员的饭碗...

降维打击Cursor!Augment正在抢走中级程序员的饭碗...

降维打击Cursor!Augment正在抢走中级程序员的饭碗...

大家好,我是袋鼠帝 最近我发现好几个AI交流群炸锅了 起因是一款AI编程工具,大家聊得热火朝天。这款AI编程工具叫:Augment Code,它的slogen是更好的上下文、更好的Agent、更好的代码

来自主题: AI资讯
8553 点击    2025-06-23 12:02
√N并行+84倍计算加速!英伟达港大全新图像注意力:空间结构都保留

√N并行+84倍计算加速!英伟达港大全新图像注意力:空间结构都保留

√N并行+84倍计算加速!英伟达港大全新图像注意力:空间结构都保留

GSPN是一种新型视觉注意力机制,通过线性扫描和稳定性-上下文条件,高效处理图像空间结构,显著降低计算复杂度。通过线性扫描方法建立像素间的密集连接,并利用稳定性-上下文条件确保稳定的长距离上下文传播,将计算复杂度显著降低至√N量级。

来自主题: AI技术研报
6448 点击    2025-06-18 16:41
不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

随着大模型应用场景的不断拓展,其在处理长期对话时逐渐暴露出的记忆局限性日益凸显,主要表现为固定长度上下文窗口导致的“健忘”问题。

来自主题: AI资讯
7990 点击    2025-06-18 16:32
刚刚,谷歌AI路线图曝光:竟要抛弃注意力机制?Transformer有致命缺陷!

刚刚,谷歌AI路线图曝光:竟要抛弃注意力机制?Transformer有致命缺陷!

刚刚,谷歌AI路线图曝光:竟要抛弃注意力机制?Transformer有致命缺陷!

未来AI路线图曝光!谷歌发明了Transformer,但在路线图中承认:现有注意力机制无法实现「无限上下文」,这意味着下一代AI架构,必须「从头重写」。Transformer的时代,真的要终结了吗?在未来,谷歌到底有何打算?

来自主题: AI资讯
8660 点击    2025-06-17 11:06
技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

本文深入剖析 MiniCPM4 采用的稀疏注意力结构 InfLLM v2。作为新一代基于 Transformer 架构的语言模型,MiniCPM4 在处理长序列时展现出令人瞩目的效率提升。传统Transformer的稠密注意力机制在面对长上下文时面临着计算开销迅速上升的趋势,这在实际应用中造成了难以逾越的性能瓶颈。

来自主题: AI技术研报
6339 点击    2025-06-16 15:24
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

最近,来自约翰・霍普金斯大学与中国人民大学的团队设计了三套实验,专门把关键线索藏在上下文之外,逼模型「凭记忆」作答,从而检验它们是否真的在脑海里保留了信息。

来自主题: AI技术研报
7064 点击    2025-06-15 15:16