AI资讯新闻榜单内容搜索-数据集

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据集
全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

全面增强LLM推理/规划/执行力!北航提出全新「内置CoT」思考方法

基于内置思维链的思考方法为解决多轮会话中存在的问题提供了研究方向。按照思考方法收集训练数据集,通过有监督学习微调大语言模型;训练一个一致性奖励模型,并将该模型用作奖励函数,以使用强化学习来微调大语言模型。结果大语言模型的推理能力和计划能力,以及执行计划的能力得到了增强。

来自主题: AI资讯
5917 点击    2025-03-04 19:46
一文详解:DeepSeek 第四天开源的模型设计套件

一文详解:DeepSeek 第四天开源的模型设计套件

一文详解:DeepSeek 第四天开源的模型设计套件

第四天,DeepSee发布包括三个主要项目: DualPipe- 一种用于 V3/R1 训练的双向流水线并行算法,实现计算和通信完全重叠; EPLB(Expert Parallelism Load Balancer) - 专为 V3/R1 设计的专家并行负载均衡器; Profile-data- 分析 V3/R1 中计算与通信重叠的性能数据集。

来自主题: AI技术研报
8282 点击    2025-02-27 12:16
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%

LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%

LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%

近日,Meta等机构发表的论文介绍了一种通过进化算法构造高质量数据集的方法:拒绝指令偏好(RIP),得到了Yann LeCun的转赞。相比未经过滤的数据,使用RIP构建的数据集让模型在多个基准测试中都实现了显著提升。

来自主题: AI技术研报
8096 点击    2025-02-25 14:48
「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

「开源类脑芯片」二代发布!支持反向传播突触学习规则和并行神经元计算

在今年1月《Journal of Supercomputing》上开源的「开源类脑芯片」二代(Polaris 23)完整版本源代码,基于RISC-V架构,支持脉冲神经网络(SNN)和反向传播STDP。该芯片通过并行架构显著提升神经元和突触处理能力,带宽和能效大幅提升,MNIST数据集准确率达91%。

来自主题: AI技术研报
7119 点击    2025-02-21 09:35
微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

RedStone是一个高效构建大规模指定领域数据的处理管道,通过优化数据处理流程,从Common Crawl中提取了RedStone-Web、RedStone-Code、RedStone-Math和RedStone-QA等数据集,在多项任务中超越了现有开源数据集,显著提升了模型性能。

来自主题: AI技术研报
5944 点击    2025-02-18 20:15
全球首个「视频教学」基准!南洋理工、CMU发布Video-MMMU

全球首个「视频教学」基准!南洋理工、CMU发布Video-MMMU

全球首个「视频教学」基准!南洋理工、CMU发布Video-MMMU

人类通过课堂学习知识,并在实践中不断应用与创新。那么,多模态大模型(LMMs)能通过观看视频实现「课堂学习」吗?新加坡南洋理工大学S-Lab团队推出了Video-MMMU——全球首个评测视频知识获取能力的数据集,为AI迈向更高效的知识获取与应用开辟了新路径。

来自主题: AI技术研报
5778 点击    2025-02-12 12:01
o3-mini数学推理暴打DeepSeek-R1?AIME 2025初赛曝数据集污染大瓜

o3-mini数学推理暴打DeepSeek-R1?AIME 2025初赛曝数据集污染大瓜

o3-mini数学推理暴打DeepSeek-R1?AIME 2025初赛曝数据集污染大瓜

就在刚刚,AIME 2025 I数学竞赛的大模型参赛结果出炉,o3-mini取得78%的最好成绩,DeepSeek R1拿到了65%,取得第四名。然而一位教授却发现,某些1.5B小模型竟也能拿到50%,莫非真的存在数据集污染?

来自主题: AI资讯
8234 点击    2025-02-10 11:21
模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

模型参数作知识通用载体,MergeNet离真正的异构知识迁移更进一步

知识蒸馏通过训练一个紧凑的学生模型来模仿教师模型的 Logits 或 Feature Map,提高学生模型的准确性。迁移学习则通常通过预训练和微调,将预训练阶段在大规模数据集上学到的知识通过骨干网络共享应用于下游任务。

来自主题: AI技术研报
3594 点击    2025-01-28 11:57