AI资讯新闻榜单内容搜索-内存

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 内存
独角兽被微软挖角,新团队首曝光!情感AI嵌入机器人,超大内存升级情感体验

独角兽被微软挖角,新团队首曝光!情感AI嵌入机器人,超大内存升级情感体验

独角兽被微软挖角,新团队首曝光!情感AI嵌入机器人,超大内存升级情感体验

AI独角兽Inflection AI,在经历投资方微软「挖角」之后,近况如何?在上周接受VentureBeat独家采访时,Inflection AI公布了其由经验丰富的硅谷老将组成的新领导团队,公司目前资金充足,正在扩大其工程团队。计划将情感AI嵌入商业机器人,凭借其在AI情感智能领域的领先地位进军2B市场。

来自主题: AI资讯
9452 点击    2024-05-28 13:47
AI内存瓶颈(上):3D NAND路线图

AI内存瓶颈(上):3D NAND路线图

AI内存瓶颈(上):3D NAND路线图

随着AI带来的算力需求大爆发,以半导体为代表的各类硬件企业的营收也纷纷水涨船高。

来自主题: AI技术研报
7340 点击    2024-05-20 16:41
处理器AI性能平白“翻倍”?错误报道背后的故事

处理器AI性能平白“翻倍”?错误报道背后的故事

处理器AI性能平白“翻倍”?错误报道背后的故事

2024年4月下旬,AMD方面发布了锐龙8000系列的专业向桌面版产品线,也就是锐龙PRO的8000系列家族。与大家熟知的“普通版”锐龙8000系列相比,“专业线”的锐龙PRO 8000系列其实变化并不大,它们主要是增加了对于微软安全处理器(Microsoft Pluton)、ECC内存、安全虚拟化,以及远程管理等专业功能的支持。

来自主题: AI资讯
8054 点击    2024-04-29 11:19
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
8324 点击    2024-04-14 11:32
AI在用:万万没想到,科技论文还能这么读

AI在用:万万没想到,科技论文还能这么读

AI在用:万万没想到,科技论文还能这么读

laude 3 具有非常大的内存( 200k 上下文窗口)和很强的调用准确性,它的上下文能力也因此成为最受欢迎、应用最广的技能。我们介绍过如何利用这种能力,没时间收听播客也能获取核心内容。今天,我们再介绍一个新技能,帮助技术小白快速 get 最新、最前沿的科技成果

来自主题: AI资讯
7450 点击    2024-04-11 10:48
华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。

来自主题: AI技术研报
4781 点击    2024-04-03 17:29
田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型

3 月 6 日,田渊栋又一项研究出炉,这次,他们主攻 LLM 内存效率。除了田渊栋本人,还有来自加州理工学院、德克萨斯大学奥斯汀分校以及 CMU 的研究者。

来自主题: AI技术研报
9993 点击    2024-03-08 15:07