
谷歌更新Transformer架构,更节省计算资源!50%性能提升
谷歌更新Transformer架构,更节省计算资源!50%性能提升谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。
谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。
一位90岁巨擘的逝世,正在牵动整个科技圈的关注。 正如YC创始人Paul Graham所说: 我关注的每一个人,都在对丹尼尔·卡尼曼表达敬意。
FoundationPose模型使用RGBD图像对新颖物体进行姿态估计和跟踪,支持基于模型和无模型设置,在多个公共数据集上大幅优于针对每个任务专门化的现有方法.
一年一度的CVPR 2024录用结果出炉了。今年,共有2719篇论文被接收,录用率为23.6%。
今天,陆续有网友晒出OpenAI发给自己的红队邀请邮件,看起来,GPT-5已经进入红队测试了?网友们纷纷展开畅想,对Sam Altman在线「催更」。另有外媒曝出,OpenAI的一个mini版数十亿「星际之门」,最快2026年就会启动。
在探索人工智能边界时,我们时常惊叹于人类孩童的学习能力 —— 可以轻易地将他人的动作映射到自己的视角,进而模仿并创新。当我们追求更高阶的人工智能的时候,无非是希望赋予机器这种与生俱来的天赋。
Diffusion 不仅可以更好地模仿,而且可以进行「创作」。扩散模型(Diffusion Model)是图像生成模型的一种。有别于此前 AI 领域大名鼎鼎的 GAN、VAE 等算法,扩散模型另辟蹊径,其主要思想是一种先对图像增加噪声,再逐步去噪的过程,其中如何去噪还原图像是算法的核心部分。而它的最终算法能够从一张随机的噪声图像中生成图像。
AI无人商店,背后疑似是1000印度人看摄像头:大厂的「拿货即走」没有走通?
红杉近日组织了他们的AI Ascent 2024主题活动。作为VC大佬的红杉出手还是很不凡,除了题为“人工智能的机遇” 开场演讲颇有营养外,已经分享出来的Andrej Karpathy和吴恩达两位AI大神的现场演讲更是不容错过。
来自UC berkeley的研究人员开源了首个世界模型,多模态性能优秀,长视频理解吊打GPT-4,同时将上下文长度增加到百万级别
就在刚刚,特斯拉CV负责人Ethan Knight被曝已经离职,转投xAI。网友纷纷猜测:马斯克这是要放弃特斯拉FSD了?他急忙澄清道:特斯拉在自动驾驶上正在拼命加速,而AI的人才争夺战,才是最疯狂的!
200名音乐人联名信抗议的消息刚出,Stability AI的新音乐工具就来了!刚刚发布的Stable Audio 2.0,可以创作长达3分钟的音乐,哼哼几句就能给你创作出一段音乐了!不过广大网友和音乐人试用后表示:有点失望……
「被门夹过的核桃,还能补脑吗?」
物体姿态估计对于各种应用至关重要,例如机器人操纵和混合现实。实例级方法通常需要纹理 CAD 模型来生成训练数据,并且不能应用于测试时未见过的新物体;而类别级方法消除了这些假设(实例训练和 CAD 模型),但获取类别级训练数据需要应用额外的姿态标准化和检查步骤。
要不他们可能就跳槽到 OpenAI 了。当全球首富埃隆・马斯克(Elon Musk)建立 xAI,准备与 OpenAI、谷歌竞争大模型时,他必须与众多科技巨头、初创公司争夺人才。不过,他使用了一些取巧的办法:从自家的特斯拉挖来了几名优秀工程师。
现在,不论是网页、iOS 还是安卓版的 ChatGPT,都可以用上 DALL-E 3 强大的编辑图像功能了。
不用199,也不用9.9,英伟达黄院士免费给大伙儿送AI课了!从数据科学到深度学习,再到生成式AI,全都有免费课程上新,且不少课入门小白也能看懂。
离大谱了,弱智吧登上正经AI论文,还成了最好的中文训练数据??
基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。
不到 24 小时,Star 量突破 1400。
Anthropic 发现一种新型越狱漏洞并给出了高效的缓解方案,可以将攻击成功率从 61% 降至 2%。
苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。
又一项针对AI模型的数学奥赛来了!只要在50道题中做出3道,就有可能把百万美元大奖抱回家。题目难度为人类的高中学术竞赛难度,包括基础算术、代数思维和几何推理。欢迎AI模型们踊跃报名。
AI人才争夺战拉响!谷歌四大高管挖走了OpenAI前开发者关系负责人Logan Kilpatrick。他将AI Studio产品,并为Gemini API提供支持。网友纷纷看好谷歌。
就在刚刚,Anthropic发现了大模型的惊人漏洞。经过256轮对话后,Claude 2逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。
世界首个AI程序员Devin诞生不足一个月,普林斯顿就推出了全新的「开源版本」——SWE-agent!在GPT-4的加持下,debug只需93秒,准确率几乎不相上下。
先上代码再发论文,腾讯新开源文生视频工具火了。名为MuseV,主打基于视觉条件并行去噪的无限长度和高保真虚拟人视频生成。
用GPT-4打造的AI程序员,结果轻松追平Devin!普林斯顿打造的开源SWE-agent,直接开箱即用——修复GitHub存储库中真实bug。在25%的SWE-bench测试集上,它实现了与Devin相似的准确度—— 解决了12.29%的问题。
大模型厂商在上下文长度上卷的不可开交之际,一项最新研究泼来了一盆冷水——Claude背后厂商Anthropic发现,随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。无论是闭源的GPT-4和Claude 2,还是开源的Llama2和Mistral,都未能幸免。