AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
中科院等万字详解:最前沿图像扩散模型综述

中科院等万字详解:最前沿图像扩散模型综述

中科院等万字详解:最前沿图像扩散模型综述

针对图像编辑中的扩散模型,中科院联合Adobe和苹果公司的研究人员发布了一篇重磅综述。

来自主题: AI技术研报
4862 点击    2024-03-07 14:24
全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

全面超越ViT,美团、浙大等提出视觉任务统一架构VisionLLAMA

半年多来,Meta 开源的 LLaMA 架构在 LLM 中经受了考验并大获成功(训练稳定、容易做 scaling)。

来自主题: AI技术研报
4546 点击    2024-03-07 14:01
ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

模型量化是模型压缩与加速中的一项关键技术,其将模型权重与激活值量化至低 bit,以允许模型占用更少的内存开销并加快推理速度。对于具有海量参数的大语言模型而言,模型量化显得更加重要。

来自主题: AI技术研报
8687 点击    2024-03-07 13:53
阿里领投Minimax 6亿美元融资,5家大模型独角兽集齐了

阿里领投Minimax 6亿美元融资,5家大模型独角兽集齐了

阿里领投Minimax 6亿美元融资,5家大模型独角兽集齐了

彭博社消息称,新一轮融资或将使MiniMax估值超25亿美元。目前阿里和红杉已承诺将参与本轮融资,其余跟投者还在洽谈中,相关条款可能会有所调整。

来自主题: AI技术研报
8777 点击    2024-03-07 10:59
你花钱想消除的 AI 水印,其实也是虚假内容的克星

你花钱想消除的 AI 水印,其实也是虚假内容的克星

你花钱想消除的 AI 水印,其实也是虚假内容的克星

我们将介绍 AI 生成内容加水印的方法,讨论其优缺点,并展示 Hugging Face Hub 上一些可用于添加/检测水印的工具。

来自主题: AI技术研报
5462 点击    2024-03-07 10:38
Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

Claude 3成功破解未公开算法?智商测试101分超越人类/碾压GPT-4!网友惊呼:实测比跑分还强

网友测试Claude之后惊呼:实测比跑分厉害多了!智商测试中碾压GPT-4,得分高达101。而且能发现量子物理学家还未发表的量子算法。

来自主题: AI技术研报
8564 点击    2024-03-06 14:43
Stable Diffusion 3技术报告流出,Sora构架再立大功!生图圈开源暴打Midjourney和DALL·E 3?

Stable Diffusion 3技术报告流出,Sora构架再立大功!生图圈开源暴打Midjourney和DALL·E 3?

Stable Diffusion 3技术报告流出,Sora构架再立大功!生图圈开源暴打Midjourney和DALL·E 3?

Stability AI放出了号称能暴打闭源模型的Stable Diffusion 3的技术报告,采用DiT构架的新模型在灵活性和性能上都达到了新的高度。

来自主题: AI技术研报
6205 点击    2024-03-06 14:38
如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

如何看待Anthropic公司在ChatGPT4.5推出前,宣布推出Claude 3?

已经第一时间氪金到了 claude 3 Pro,准备接下来停用GPT-4(直到GPT-4.5出来),日常工作完全用Claude 3 Opus。

来自主题: AI技术研报
9762 点击    2024-03-06 10:50
国内的这两支队伍,正在尝试开源Sora!

国内的这两支队伍,正在尝试开源Sora!

国内的这两支队伍,正在尝试开源Sora!

在2024年2月份,OpenAI推出了一项创新的文本转视频模型,名为Sora。这一模型标志着视频生成技术取得了显著的进步。Sora具备将简短文本描述转化为长达一分钟的详尽且高清晰度视频片段的能力。

来自主题: AI技术研报
7754 点击    2024-03-05 14:43
ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

ICLR 2024 Oral:长视频中噪声关联学习,单卡训练仅需1天

在 2024 世界经济论坛的一次会谈中,图灵奖得主 Yann LeCun 提出用来处理视频的模型应该学会在抽象的表征空间中进行预测,而不是具体的像素空间 [1]。借助文本信息的多模态视频表征学习可抽取利于视频理解或内容生成的特征,

来自主题: AI技术研报
10583 点击    2024-03-05 14:36
0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

0.5秒,无需GPU,Stability AI与华人团队VAST开源单图生成3D模型TripoSR

最近,文生视频模型 Sora 掀起了新一轮生成式 AI 模型浪潮,模型的多模态能力引起广泛关注。

来自主题: AI技术研报
6131 点击    2024-03-05 14:30
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA

谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步。最新ScreenAI视觉语言模型,能够完成各种屏幕QA问答、总结摘要等任务。

来自主题: AI技术研报
9688 点击    2024-03-05 10:35
RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

去年 12 月,新架构 Mamba 引爆了 AI 圈,向屹立不倒的 Transformer 发起了挑战。如今,谷歌 DeepMind「Hawk 」和「Griffin 」的推出为 AI 圈提供了新的选择。

来自主题: AI技术研报
5754 点击    2024-03-03 18:10
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界

谷歌DeepMind、UC伯克利和MIT的研究人员认为,如果用大语言模型的思路来做大视频模型,能解决很多语言模型不擅长的问题,可能能更进一步接近世界模型。

来自主题: AI技术研报
6621 点击    2024-03-03 17:31
模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或 AI 反馈的强化学习(RLHF/RLAIF)或者直接偏好优化(DPO),而在模型评估中,由于任务的复杂性且通常没有标准答案,则通常直接以人类标注者或高性能大模型(LLM-as-a-Judge)的偏好标注作为评判标准。

来自主题: AI技术研报
10991 点击    2024-03-02 14:58
60行代码,从头开始构建GPT!最全实践指南来了

60行代码,从头开始构建GPT!最全实践指南来了

60行代码,从头开始构建GPT!最全实践指南来了

GPT早已成为大模型时代的基础。国外一位开发者发布了一篇实践指南,仅用60行代码构建GPT。

来自主题: AI技术研报
9078 点击    2024-03-01 17:44
首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

首批类Sora模型出现,色拉布上线Snap Video,效果优于Pika、不输Gen-2

最近,OpenAI 视频生成模型 Sora 的爆火,给基于 Transformer 的扩散模型重新带来了一波热度,比如 Sora 研发负责人之一 William Peebles 与纽约大学助理教授谢赛宁去年提出的 DiT(Diffusion Transformer)。

来自主题: AI技术研报
3810 点击    2024-03-01 13:43
几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

几行代码稳定UNet ! 中山大学等提出ScaleLong扩散模型:从质疑Scaling到成为Scaling

本文提出了扩散模型中UNet的long skip connection的scaling操作可以有助于模型稳定训练的分析,目前已被NeurIPS 2023录用。同时,该分析还可以解释扩散模型中常用但未知原理的1/√2 scaling操作能加速训练的现象。

来自主题: AI技术研报
7672 点击    2024-02-29 13:52