AI资讯新闻榜单内容搜索-8

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 8
速递|Daze,为Z世代打造的AI创意通讯工具,获得a16z等投资,在互联网迅速崛起

速递|Daze,为Z世代打造的AI创意通讯工具,获得a16z等投资,在互联网迅速崛起

速递|Daze,为Z世代打造的AI创意通讯工具,获得a16z等投资,在互联网迅速崛起

在 TikTok 上,Daze 最受欢迎的视频已被观看了 800 万次。在TikTok和Instagram上,旨在针对 Z 世代的新消息应用背后的初创公司已获得约 4800 万的总观看次数。

来自主题: AI资讯
4393 点击    2024-10-23 13:29
马斯克xAI终于官宣API,定价是GPT-4o两倍!

马斯克xAI终于官宣API,定价是GPT-4o两倍!

马斯克xAI终于官宣API,定价是GPT-4o两倍!

马斯克终于兑现8月承诺了,xAI API正式上线。不过,价格却是GPT-4o两倍。

来自主题: AI资讯
3523 点击    2024-10-22 16:46
312亿超级独角兽浮出水面:一把融资28亿,极为低调

312亿超级独角兽浮出水面:一把融资28亿,极为低调

312亿超级独角兽浮出水面:一把融资28亿,极为低调

AI算力赛道又诞生一笔巨额融资。 近日,AI算力公司Lightmatter获得新一轮4亿美元(约合人民币28.45亿元)D轮融资。本轮由普徕仕(T. Rowe Price)领投,老股东GV、富达等跟投。本轮融资后,Lightmatter估值达到44亿美元(约合人民币312.91亿元)。

来自主题: AI资讯
4908 点击    2024-10-22 09:17
速递|Perplexity新一轮估值近百亿美元!各路大佬入局,AI搜索的想象力到底有多大?

速递|Perplexity新一轮估值近百亿美元!各路大佬入局,AI搜索的想象力到底有多大?

速递|Perplexity新一轮估值近百亿美元!各路大佬入局,AI搜索的想象力到底有多大?

人工智能搜索公司 Perplexity 已开始筹款谈判,计划将其估值提高到 80 亿美元或更多,试图借助 OpenAI 最近的大额投资的热度获得更多融资。

来自主题: AI资讯
5698 点击    2024-10-21 17:25
NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

NeurIPS 2024 | 标签噪声下图神经网络有了首个综合基准库,还开源

多年来,浙江大学周晟老师团队与阿里安全交互内容安全团队持续开展产学研合作。近日,双⽅针对标签噪声下图神经⽹络的联合研究成果《NoisyGL:标签噪声下图神经网络的综合基准》被 NeurIPS Datasets and Benchmarks Track 2024 收录。本次 NeurIPS D&B Track 共收到 1820 篇投稿,录⽤率为 25.3%。

来自主题: AI技术研报
5010 点击    2024-10-21 14:42
突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

视频多模态大模型(LMMs)的发展受限于从网络获取大量高质量视频数据。为解决这一问题,我们提出了一种替代方法,创建一个专为视频指令跟随任务设计的高质量合成数据集,名为 LLaVA-Video-178K。

来自主题: AI技术研报
4369 点击    2024-10-21 14:33
清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

一键部署LLM混合精度推理,端到端吞吐比AWQ最大提升6倍! 清华大学计算机系PACMAN实验室发布开源混合精度推理系统——MixQ。 MixQ支持8比特和4比特混合精度推理,可实现近无损的量化部署并提升推理的吞吐。

来自主题: AI资讯
4087 点击    2024-10-21 14:15
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
9970 点击    2024-10-19 14:15