AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果,拿下图学习“世界杯”单项冠军! 由中科大王杰教授团队(MIRA Lab)提出的首个具有最优性保证的大语言模型和图神经网络分离训练框架,在国际顶级图学习标准OGB(Open Graph Benchmark)挑战赛的蛋白质功能预测任务上斩获「第一名」,该纪录从2023年9月27日起保持至今。

来自主题: AI资讯
4488 点击    2024-09-30 14:34
特稿|AI遇上SaaS:融合之道,还是较量之局?

特稿|AI遇上SaaS:融合之道,还是较量之局?

特稿|AI遇上SaaS:融合之道,还是较量之局?

早在20世纪90年代末期,SaaS概念就已经诞生,但直到2010年云计算被广泛采用,SaaS市场才真正开始掀起波澜。从那时起,SaaS行业经历了迅猛的发展。根据Statista的数据,预计到2027年,SaaS行业市场规模将达到3391亿美元。

来自主题: AI资讯
6315 点击    2024-09-30 11:39
迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

在医疗领域中,大语言模型已经有了广泛的研究。然而,这些进展主要依赖于英语的基座模型,并受制于缺乏多语言医疗专业数据的限制,导致当前的医疗大模型在处理非英语问题时效果不佳。

来自主题: AI技术研报
9432 点击    2024-09-29 22:38
利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

利用公开知识定向提升大模型,腾讯优图&上交大提出新方法,性能达SOTA

告别传统指令微调,大模型特定任务性能提升有新方法了。 一种新型开源增强知识框架,可以从公开数据中自动提取相关知识,针对性提升任务性能。 与基线和SOTA方法对比,本文方法在各项任务上均取得了更好的性能。

来自主题: AI资讯
4304 点击    2024-09-29 15:59
支付宝进军大模型医疗应用,技术一号位:我们有4个切入点

支付宝进军大模型医疗应用,技术一号位:我们有4个切入点

支付宝进军大模型医疗应用,技术一号位:我们有4个切入点

大模型医疗应用还在早期,最大挑战还是在数据的处理上,国内至少还需要两到三年来解决; 创业公司还有机会,只要找到合适的切入点。这个行业只有撑死的,没有饿死的。

来自主题: AI资讯
6240 点击    2024-09-29 15:42
OpenAI 预计 2029 年收入将达 1000 亿美金,8 月份收入已达 3 亿美金

OpenAI 预计 2029 年收入将达 1000 亿美金,8 月份收入已达 3 亿美金

OpenAI 预计 2029 年收入将达 1000 亿美金,8 月份收入已达 3 亿美金

《纽约时报》今天披露了很多关于 OpenAI 有意思的数据,根据其查阅的财务文件显示,OpenAI 8 月份的月收入达到 3 亿美元,自 2023 年初以来增长了 1700%,预计今年的年销售额约为 37 亿美元,而明年营收将增至 116 亿美元。

来自主题: AI资讯
3398 点击    2024-09-29 14:47
长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

视觉数据的种类极其多样,囊括像素级别的图标到数小时的视频。现有的多模态大语言模型(MLLM)通常将视觉输入进行分辨率的标准化或进行动态切分等操作,以便视觉编码器处理。然而,这些方法对多模态理解并不理想,在处理不同长度的视觉输入时效率较低。

来自主题: AI资讯
4180 点击    2024-09-29 14:44
从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

从数据增强的隐藏作用出发,揭示视觉强化学习可塑性损失的独特机制

Sutton 等研究人员近期在《Nature》上发表的研究《Loss of Plasticity in Deep Continual Learning》揭示了一个重要发现:在持续学习环境中,标准深度学习方法的表现竟不及浅层网络。研究指出,这一现象的主要原因是 "可塑性损失"(Plasticity Loss):深度神经网络在面对非平稳的训练目标持续更新时,会逐渐丧失从新数据中学习的能力。

来自主题: AI资讯
5113 点击    2024-09-29 14:39
完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

完全使用「自生成数据」实现LLM自我纠正,DeepMind新突破SCoRe:纠正性能提升15.9%

Google DeepMind的SCoRe方法通过在线多轮强化学习,显著提升了大型语言模型在没有外部输入的情况下的自我修正能力。该方法在MATH和HumanEval基准测试中,分别将自我修正性能提高了15.6%和9.1%。

来自主题: AI技术研报
11096 点击    2024-09-27 19:26
666条数据教会AI写万字长文!模型数据集都开源

666条数据教会AI写万字长文!模型数据集都开源

666条数据教会AI写万字长文!模型数据集都开源

仅需600多条数据,就能训练自己的长输出模型了?!

来自主题: AI技术研报
8449 点击    2024-09-27 18:33