
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。
混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。
最近,来自Meta和UC伯克利的研究人员,发布了一种最新的音频到人像模型。操作简单,输出极致逼真。
对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。
多模态大模型GPT-4V也会「有眼无珠」。UC San Diego纽约大学研究人员提出全新V*视觉搜索算法逆转LLM弱视觉宿命。
即使遮挡,也能渲染出高保真的 3D 人体。
GPT-4V的开源替代方案来了!极低成本,性能却类似,清华、浙大等中国顶尖学府,为我们提供了性能优异的GPT-4V开源平替。
最近 AngelList 举办了 2023 年会,现任 CEO Avlok Kohli 和 Naval 进行了一场 45 分钟的高密度圆桌对谈,谈到了给如今 AI 创业者和投资人的建议,以及自己最新创业打造的语音社交产品 Airchat。
5年后,ChatGPT会替代底层程序员吗?java行业已经被chatgpt冲击不小了
就在刚刚,亚马逊云科技祭出了全新AI「大杀器」Amazon Q。不仅只用两天时间就升级了上千款Java应用,更是将企业的数据屏障一举击穿。
最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这个结果表明,统一LLM的输入能让LLM的视觉理解能力提升。