OpenAI,又要放大招了
OpenAI,又要放大招了智东西5月11日消息,今天凌晨,OpenAI宣布将于美国时间13日上午10点(北京时间14日凌晨1点)在官网直播,演示ChatGPT、GPT-4的更新内容。
智东西5月11日消息,今天凌晨,OpenAI宣布将于美国时间13日上午10点(北京时间14日凌晨1点)在官网直播,演示ChatGPT、GPT-4的更新内容。
2023-2024年,以 GPT-4V、Gemini、Claude、LLaVA 为代表的多模态大模型(Multimodal LLMs)已经在文本和图像等多模态内容处理方面表现出了空前的能力,成为技术新浪潮。
在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题
编者按:从2014年开始,Matt Turck每年都会推出一个反映大数据、机器学习、人工智能整体格局的版图
太平洋时间4月9日,谷歌、OpenAl、Mistral在24小时内,接连发布大模型重磅更新。
为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。
它通过将压缩记忆(compressive memory)整合到线性注意力机制中,用来处理无限长上下文
不到 24 小时,Star 量突破 1400。
【新智元导读】52B的生产级Mamba大模型来了!这个超强变体Jamba刚刚打破世界纪录,它能正面硬刚Transformer,256K超长上下文窗口,吞吐量提升3倍,权重免费下载。
【新智元导读】从今天起,千元级就能解锁专属大模型了!这款搭载首颗纯国产14nm Chiplet大模型推理芯片的「深目」AI模盒,可以轻松实现百亿级参数多模态大模型的推理+微调。各种碎片化长尾算法,直接秒级生成!