AI资讯新闻榜单内容搜索-预训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 预训练
4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

4K分辨率视觉预训练首次实现!伯克利&英伟达多模态新SOTA,更准且3倍加速处理

当前,所有主流的视觉基础模型(如 SigLIP、DINOv2 等)都仍然在低分辨率(如 384 * 384 分辨率)下进行预训练。对比人类视觉系统可以轻松达到 10K 等效分辨率,这种低分辨率预训练极大地限制了视觉模型对于高清细节的理解能力。

来自主题: AI技术研报
5910 点击    2025-04-17 13:54
喝点VC|a16z对话心理健康公司Slingshot AI创始人:通过AI扩大心理健康服务的可及性

喝点VC|a16z对话心理健康公司Slingshot AI创始人:通过AI扩大心理健康服务的可及性

喝点VC|a16z对话心理健康公司Slingshot AI创始人:通过AI扩大心理健康服务的可及性

作为一家公司,我们专注于三件事:预训练、微调和对齐。我们使用自有数据集进行预训练,这一点非常关键,而很多公司并不具备这样的能力。然后,我们用专家手工整理的数据进行微调。最有趣、最重要的部分在于对齐,这与简单地寻找“当前最优解”是截然不同的。

来自主题: AI资讯
5889 点击    2025-04-16 14:29
预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化

预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化

预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化

港中文、清华等高校提出SICOG框架,通过预训练、推理优化和后训练协同,引入自生成数据闭环和结构化感知推理机制,实现模型自我进化,为大模型发展提供新思路。

来自主题: AI技术研报
8015 点击    2025-04-11 09:36
类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

类R1强化学习迁移到视觉定位!全开源Vision-R1将图文大模型性能提升50%

图文大模型通常采用「预训练 + 监督微调」的两阶段范式进行训练,以强化其指令跟随能力。受语言领域的启发,多模态偏好优化技术凭借其在数据效率和性能增益方面的优势,被广泛用于对齐人类偏好。目前,该技术主要依赖高质量的偏好数据标注和精准的奖励模型训练来提升模型表现。然而,这一方法不仅资源消耗巨大,训练过程仍然极具挑战。

来自主题: AI技术研报
9115 点击    2025-04-08 14:18
CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

CLIP被淘汰了?LeCun谢赛宁新作,多模态训练无需语言监督更强!

LeCun谢赛宁等研究人员通过新模型Web-SSL验证了SSL在多模态任务中的潜力,证明其在扩展模型和数据规模后,能媲美甚至超越CLIP。这项研究为无语言监督的视觉预训练开辟新方向,并计划开源模型以推动社区探索。

来自主题: AI技术研报
6951 点击    2025-04-07 15:09
喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

喝点VC|a16z对话心理健康公司Slingshot AI创始人:我们专注于三件事:预训练、微调和对齐

作为一家公司,我们专注于三件事:预训练、微调和对齐。我们使用自有数据集进行预训练,这一点非常关键,而很多公司并不具备这样的能力。然后,我们用专家手工整理的数据进行微调。最有趣、最重要的部分在于对齐,这与简单地寻找“当前最优解”是截然不同的。

来自主题: AI资讯
4873 点击    2025-03-27 14:14
视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频生成的测试时Scaling时刻!清华开源Video-T1,无需重新训练让性能飙升

视频作为包含大量时空信息和语义的媒介,对于 AI 理解、模拟现实世界至关重要。视频生成作为生成式 AI 的一个重要方向,其性能目前主要通过增大基础模型的参数量和预训练数据实现提升,更大的模型是更好表现的基础,但同时也意味着更苛刻的计算资源需求。

来自主题: AI技术研报
6989 点击    2025-03-26 14:43
8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

8张GPU训出近SOTA模型,超低成本图像生成预训练方案开源

超低成本图像生成预训练方案来了——仅需8张GPU训练,就能实现近SOTA的高质量图像生成效果。

来自主题: AI技术研报
8141 点击    2025-03-18 16:04