AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

想训练类Sora模型吗?尤洋团队OpenDiT实现80%加速

根据 OpenAI 披露的技术报告,Sora 的核心技术点之一是将视觉数据转化为 patch 的统一表征形式,并通过 Transformer 和扩散模型结合,展现了卓越的扩展(scale)特性。

来自主题: AI技术研报
8348 点击    2024-02-29 13:35
谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

谷歌豪掷6000万美元买「美版贴吧」数据,只为训AI模型!Altman竟是第三大股东

Reddit和OpenAI及谷歌,竟有着如此错综复杂的关系?最近,Reddit和谷歌双双官宣了一项6000万美元的合作协议,Reddit的数据将帮助谷歌训练AI模型。巧的是,Altman正是Reddit股东之一。

来自主题: AI资讯
9715 点击    2024-02-28 16:08
MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」

随着大语言模型(LLMs)在近年来取得显著进展,它们的能力日益增强,进而引发了一个关键的问题:如何确保他们与人类价值观对齐,从而避免潜在的社会负面影响?

来自主题: AI技术研报
10720 点击    2024-02-27 14:03
大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。

来自主题: AI技术研报
3445 点击    2024-02-27 14:00
Sora训练数据疑暴露,网友:绝对用了UE5

Sora训练数据疑暴露,网友:绝对用了UE5

Sora训练数据疑暴露,网友:绝对用了UE5

好消息,好消息,真·Sora视频上新了!走过路过不要错过!

来自主题: AI资讯
8353 点击    2024-02-25 15:45
补齐Transformer规划短板,田渊栋团队的Searchformer火了

补齐Transformer规划短板,田渊栋团队的Searchformer火了

补齐Transformer规划短板,田渊栋团队的Searchformer火了

最近几年,基于 Transformer 的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类架构搭配大量数据,得到的大型语言模型(LLM)等模型可以很好地泛化用于真实世界用例。

来自主题: AI技术研报
8390 点击    2024-02-24 14:51
模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向

模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向

模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向

在过去的 2023 年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望 2024 年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。

来自主题: AI技术研报
6296 点击    2024-02-22 15:31