AI资讯新闻榜单内容搜索-TEN

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: TEN
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

新年第一天,陈天奇团队的FlashInfer论文出炉!块稀疏、可组合、可定制、负载均衡......更快的LLM推理技术细节全公开。

来自主题: AI技术研报
6430 点击    2025-01-24 13:58
独家|ZP独家合作AI独角兽Perplexity,开学季减压神器, 最适合学生的AI搜索引擎!

独家|ZP独家合作AI独角兽Perplexity,开学季减压神器, 最适合学生的AI搜索引擎!

独家|ZP独家合作AI独角兽Perplexity,开学季减压神器, 最适合学生的AI搜索引擎!

新学期压力山大?让AI来帮你轻松应对!Z Potentials独家合作AI搜索独角兽Perplexity为学生们推荐一款学习神器——Perplexity Spaces!这个AI学习助手将彻底改变你的学习方式。

来自主题: AI资讯
7874 点击    2025-01-14 15:17
4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

大模型中,线性层的低比特量化已经逐步落地。然而,对于注意力模块,目前几乎各个模型都还在用高精度(例如 FP16 或 FP32)的注意力运算进行训练和推理。并且,随着大型模型需要处理的序列长度不断增加,Attention(注意力运算)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
6655 点击    2024-12-27 09:44
突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

想象这样一个场景:深夜 11 点,你已经忙碌了一天,正准备休息,却想起明天早上还得分享一篇经典论文《Attention Is All You Need》,需要准备幻灯片。这时,你突然想到了自己的 AI 助手 —— PC Agent。

来自主题: AI技术研报
9265 点击    2024-12-25 11:04
为什么现在AI大模型都是基于Python开发的?

为什么现在AI大模型都是基于Python开发的?

为什么现在AI大模型都是基于Python开发的?

知乎上有个问题:国内主流AI大模型都是Python 开发的,国外AI大模型是什么语言开发的?为什么要用python?

来自主题: AI资讯
6549 点击    2024-12-22 12:20
一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

一键生成万字专利!中科院发布多智能体框架AutoPatent,含1933个「草稿-专利」数据对

AutoPatent框架能够自动化生成高质量的专利文档,大幅提高专利撰写效率,有望简化专利申请流程,降低成本,促进创新保护。

来自主题: AI技术研报
8171 点击    2024-12-20 15:36
Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Z Product | 硅谷大厂开始行动,这家成立两年的AI语音公司被收购:语音是最本能的沟通手段

Tenyx利用AI和ML,打破传统IVR系统的局限,为多元化行业提供精准、自然的语音交互解决方案,引领客户服务领域的技术革命。

来自主题: AI资讯
7079 点击    2024-12-09 09:41
开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma

自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。

来自主题: AI技术研报
6787 点击    2024-12-08 12:20
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
6629 点击    2024-12-05 11:27