AI资讯新闻榜单内容搜索-CR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CR
与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。但现实世界中的许多任务 —— 如长文档理解、复杂问答、检索增强生成(RAG)等 —— 都需要模型处理成千上万甚至几十万长度的上下文。

来自主题: AI技术研报
6345 点击    2025-11-10 15:12
两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两人小团队,仅用两周就复刻了之前被硅谷夸疯的DeepSeek-OCR?? 复刻版名叫DeepOCR,还原了原版低token高压缩的核心优势,还在关键任务上追上了原版的表现。完全开源,而且无需依赖大规模的算力集群,在两张H200上就能完成训练。

来自主题: AI资讯
8177 点击    2025-11-07 15:22
医疗AI独角兽Hippocratic AI拿下8亿融资,估值250亿,谷歌英伟达都投了

医疗AI独角兽Hippocratic AI拿下8亿融资,估值250亿,谷歌英伟达都投了

医疗AI独角兽Hippocratic AI拿下8亿融资,估值250亿,谷歌英伟达都投了

智东西11月4日消息,11月3日,美国生成式AI医疗独角兽Hippocratic AI宣布完成1.26亿美元(约合人民币8.97亿元)的C轮融资,谷歌母公司Alphabet旗下独立成长基金CapitalG参投。此轮融资也让该公司的估值达35亿美元(约合人民币249.24亿元),总融资额达到4.04亿美元(约合人民币28.77亿美元)。

来自主题: AI资讯
7885 点击    2025-11-05 11:54
大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

大模型如何准确读懂图表?微软亚研院教它“看、动手、推理”

多模态大模型(MLLM)在自然图像上已取得显著进展,但当问题落在图表、几何草图、科研绘图等结构化图像上时,细小的感知误差会迅速放大为推理偏差。

来自主题: AI技术研报
7107 点击    2025-11-03 14:20
内存直降50%,token需求少56%!用视觉方式处理长文本

内存直降50%,token需求少56%!用视觉方式处理长文本

内存直降50%,token需求少56%!用视觉方式处理长文本

在NeurIPS 2025论文中,来自「南京理工大学、中南大学、南京林业大学」的研究团队提出了一个极具突破性的框架——VIST(Vision-centric Token Compression in LLM),为大语言模型的长文本高效推理提供了全新的「视觉解决方案」。值得注意的是,这一思路与近期引起广泛关注的DeepSeek-OCR的核心理念不谋而合。

来自主题: AI技术研报
8605 点击    2025-11-01 09:23
让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

让你的Mac用上DeepSeek-OCR:一个从0到1的开源适配之旅

DeepSeek-OCR这段时间非常火,但官方开源的文件是“按 NVIDIA/CUDA 习惯写的 Linux 版推理脚本+模型权重”,而不是“跨设备跨后端”的通吃实现,因此无法直接在苹果设备上运行,对于Mac用户来说,在许多新模型诞生的第一时间,往往只能望“模”兴叹。

来自主题: AI技术研报
7960 点击    2025-10-29 17:10
推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

近日,来自普渡大学、德克萨斯大学、新加坡国立大学、摩根士丹利机器学习研究、小红书 hi-lab 的研究者联合提出了一种对离散扩散大语言模型的后训练方法 —— Discrete Diffusion Divergence Instruct (DiDi-Instruct)。经过 DiDi-Instruct 后训练的扩散大语言模型可以以 60 倍的加速超越传统的 GPT 模型和扩散大语言模型。

来自主题: AI技术研报
8997 点击    2025-10-28 09:40