
SIGGRAPH2024|上科大、影眸联合提出DressCode:从文本生成3D服装板片
SIGGRAPH2024|上科大、影眸联合提出DressCode:从文本生成3D服装板片3D生成是生成式人工智能和计算机图形学领域最引人注目的话题之一,符合影视、游戏标准的3D生成尤其受产业界关注。在生产流程中,一般品类的3D资产往往通过手工建模或者扫描的方式制作。但作为3D资产的一个重要类别,服装资产的往往来源于平面板片与物理模拟等流程,而不是直接在3D上建模。
3D生成是生成式人工智能和计算机图形学领域最引人注目的话题之一,符合影视、游戏标准的3D生成尤其受产业界关注。在生产流程中,一般品类的3D资产往往通过手工建模或者扫描的方式制作。但作为3D资产的一个重要类别,服装资产的往往来源于平面板片与物理模拟等流程,而不是直接在3D上建模。
性能超越 Llama-3,主要用于合成数据。
只要一个大模型,就能解决打工人遇到的表格难题!
在CV、ML等领域经常用到的神经场网格模型,如今有了理论框架描述其训练动力学和泛化性能。
2023年3月,如果你偶然进入纽约大学的某个礼堂,可能会以为自己在参加一场纯粹的神经科学会议。事实上,这是一个关于人工智能的研讨会——但你的困惑是可以理解的。演讲者们谈论“切除术”,即常见于动物模型实验中的脑损伤创建手术。他们提到“探测”,比如使用电极来获取大脑信号。他们还展示了语言分析,并引用了心理学中长期以来关于“先天还是后天”的争论。
AI产品化的答案,才是AI商业化的起点
PMF在AI时代需适应新变化,探索增长本质。
奥本海默曾在新墨西哥州执行曼哈顿计划,只为拯救世界。并留下了一句:「他们不会对其敬畏,直至理解;而理解,唯有亲身体验之后。」
近年来,大语言模型(Large Language Models, LLMs)受到学术界和工业界的广泛关注,得益于其在各种语言生成任务上的出色表现,大语言模型推动了各种人工智能应用(例如ChatGPT、Copilot等)的发展。然而,大语言模型的落地应用受到其较大的推理开销的限制,对部署资源、用户体验、经济成本都带来了巨大挑战。
一句话让AI自动化操作手机,打个车已经不是难事了。 从官方公布的演示视频来看,用户只需要说出目的地,Agent就能够通过规划、决策和反思的流程自动化帮用户完成目的地输入,呼叫车辆等操作,适用于老人及视障人群,解决他们不会使用或者无法使用手机APP的问题。
用KV缓存加速大模型的显存瓶颈,终于迎来突破。 北大、威斯康辛-麦迪逊、微软等联合团队提出了全新的缓存分配方案,只用2.5%的KV cache,就能保持大模型90%的性能。 这下再也不用担心KV占用的显存容量过高,导致显卡不够用了。
中国科学院大学和中科数字大脑研究院的研究人员,引入了上帝之点和死亡之点,构建了智能体演化的动力学模型——Flight Model。他们发现,以GPT-4为代表的AI已经接近了人类成人智能水平,但尚未表现出自我意识证据。并且,具有自我意识到AGI,在科学原理上存在目前无法克服的局限性。
AI通用智能体的自我进化能力,并非遥不可及。
前段时间,随着 GPT-4o、Sora 的陆续问世,多模态模型在生成式方面取得的成绩无可否认,而人工智能的下一个革命性突破将从何处涌现,引起了大量学者和相关人士的关注。
在刚刚结束的全球开发者大会上,苹果宣布了 Apple intelligence, 这是一款深度集成于 iOS 18、iPadOS 18 和 macOS Sequoia 的全新个性化智能系统。
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。
GPT-4o再次掀起多模态大模型的浪潮。
GPT-4o,比上一代更容易被越狱攻击了?
一个常被许多领导者引用、但很可能是被杜撰出来的名言是:“外行谈战略和战术,内行谈运营。”战术视角看到的是一个个独特的难题,而运营视角看到的是组织中需要需要改变的不协调的模式。战略视角看到的是机会,运营视角则看的是挑战。
之前分享了我们在运营LLM应用时磨练出来的战术(tactics)【指之前的Part I 和Part II两篇文章】。战术是具体的:是为实现目标而采取的具体行动。我们还分享了对运营(Operations)的看法:为了执行战术,达到目标,而制定的更高层次的流程。
国产大模型「日日新 5.0」已经在权威主流评测中鲨疯了。变强的背后原因竟是,来自商汤自研中文Embedding模型——Piccolo2。这是首个对标OpenAI向量长度的模型。
大模型执行图推理任务,我们是希望大模型仅仅给出结果,还是在给出准确答案的同时,输出详细的推理过程?
Transformer很强,Transformer很好,但Transformer在处理时序数据时存在一定的局限性。
近些年,语言建模领域进展非凡。Llama 或 ChatGPT 等许多大型语言模型(LLM)有能力解决多种不同的任务,它们也正在成为越来越常用的工具。
大型语言模型(LLM)的一个主要特点是「大」,也因此其训练和部署成本都相当高,如何在保证 LLM 准确度的同时让其变小就成了非常重要且有价值的研究课题。
360 度场景生成是计算机视觉的重要任务,主流方法主要可分为两类,一类利用图像扩散模型分别生成 360 度场景的多个视角。由于图像扩散模型缺乏场景全局结构的先验知识,这类方法无法有效生成多样的 360 度视角,导致场景内主要的目标被多次重复生成,如图 1 的床和雕塑。
近年来兴起的第一人称视角视频研究为理解人类社交行为提供了无法取代的直观视角,然而,绝大多数的既往工作都侧重于分析与摄像机佩戴者相关的行为,并未关注处于社交场景中其他社交对象的状态。
偏微分方程(PDEs)被称为物理学的语言,因为它们可以在广泛的时间 - 空间尺度上对各种各样的物理现象进行数学建模。常用的有限差分、有限元等数值方法通常用于近似或模拟偏微分方程。
在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构LAION的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了LLM基准测试的盲区。
最近,德国研究科学家发表的PANS论文揭示了一个令人担忧的现象:LLM已经涌现出「欺骗能力」,它们可以理解并诱导欺骗策。而且,相比前几年的LLM,更先进的GPT-4、ChatGPT等模型在欺骗任务中的表现显著提升。