“3SB大战”12周年,三个老伙伴要决战大模型之巅?
“3SB大战”12周年,三个老伙伴要决战大模型之巅?日前,360周鸿祎在第二十七届哈佛中国论坛炮轰百度李彦宏“开源不如闭源”的言论,称其胡说八道。有网友评论:当年的那个老周仿佛回来了
日前,360周鸿祎在第二十七届哈佛中国论坛炮轰百度李彦宏“开源不如闭源”的言论,称其胡说八道。有网友评论:当年的那个老周仿佛回来了
一位行业领袖对技术路线的断言甚至是“拉踩”,其影响,或许将远超公众预判
来自香港科技大学,清华大学的研究者提出了「GenN2N」,一个统一的生成式 NeRF-to-NeRF 转换框架,适用于各种 NeRF 转换任务,例如文字驱动的 NeRF 编辑、着色、超分辨率、修复等,性能均表现极其出色!
ChatGPT 拉开了大模型竞赛的序幕,Meta 似乎要后来居上了。 本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama 3。
在 2023 年的 “百模大战” 中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。
近期,硅谷 AI 公司 OpenAI 可谓是话题度拉满,先是一出「宫斗戏」引起舆论哗然,后是公布 Sora 效果炸裂受到了全网的一致好评。在这期间,一桩诉讼案件同样引爆了热点 —— 因 ChatGPT 涉嫌侵犯纽约时报著作权,OpenAI 及微软被起诉并要求支付巨额版权费 [1]。
Meta 于本周四正式发布 Llama 3,官方号称「有史以来最强大的开源大模型」。
LLM已经可以理解文本和图片了,也能够根据它们的历史知识回答各种问题,但它们或许对周围世界当前发生的事情一无所知
这是OpenAI CEO Sam Altman和COO Brad Lightcap的最新采访。作为OpenAI的首席运营官,Brad Lightcap的工作是负责推动公司销售、市场营销、合作伙伴关系和业务发展。
目前,GPU芯片紧缺成为AI行业面临的问题,另一方面,因为传统云服务计算架构与AI计算负载的不匹配,大量GPU计算资源没有被充分利用。
Karger 算法可以在时间为 O (m log^3n) 的图中找到一个最小割点,他们将这个时间称之为近线性时间,意思是线性乘以一个多对数因子
Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案
前段时间,X 平台知名 AI 博主 Aran Komatsuzaki 自己写了一首歌,专门用来表达对另一位 AI 科学家 ——Gary Marcus 的不满
文心大模型,又有新进展了!
继Mamba之后,又一敢于挑战Transformer的架构诞生了!
近日,由DeepMind、谷歌和Meta的研究人员创立的AI初创公司Reka,推出了他们最新的多模态语言模型——Reka Core
多任务机器人学习在应对多样化和复杂情景方面具有重要意义。然而,当前的方法受到性能问题和收集训练数据集的困难的限制
继之前公开课之后(周鸿祎:2024 年 AI 产业发展的 16 个趋势。)红衣大叔兑现诺言,开源了 7B 系列大模型
脑机接口最新进展登上Nature子刊,深度学习三巨头之一的LeCun都来转发。
纵观生成式AI领域中的两个主导者:自回归和扩散模型。 一个专攻文本等离散数据,一个长于图像等连续数据。 如果,我们让后者来挑战前者的主场,它能行吗?
MiniCPM 系列的最新多模态版本 MiniCPM-V 2.0。该模型基于 MiniCPM 2.4B 和 SigLip-400M 构建,共拥有 2.8B 参数。MiniCPM-V 2.0 具有领先的光学字符识别(OCR)和多模态理解能力
如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结
现今,机器学习(ML),更具体地说,深度学习已经改变了从金融到医疗等广泛的行业。在当前的 ML 范式中,训练数据首先被收集和策划,然后通过最小化训练数据上的某些损失标准来优化 ML 模型
从国际顶流 GPT-4 128K、Claude 200K 到国内「当红炸子鸡」支持 200 万字上下文的 Kimi Chat,大语言模型(LLM)在长上下文技术上不约而同地卷起来了
CUDA 是英伟达的壁垒, 推理场景是算力未来的重点
提出图像生成新范式,从预测下一个token变成预测下一级分辨率,效果超越Sora核心组件Diffusion Transformer(DiT
在开源社区中把GPT-4+Dall·E 3能⼒整合起来的模型该有多强?
史上最全的「数学人工智能资源」清单出炉了。 陶哲轩,信奉AI将在2026年成为人类数学家的重要合著者,一早便转发了这份清单。
以神经网络为基础的深度学习技术已经在诸多应用领域取得了有效成果
通过这项技术,能使transformer大模型在有限的计算资源 条件下,处理无限长度的输入。