
开源模型穷途末路?Stability AI欠下1亿美元,四处找钱寻求「卖身」
开源模型穷途末路?Stability AI欠下1亿美元,四处找钱寻求「卖身」曾经创造出Stable Diffusion系列模型的Stability AI,目前面临前所未有的财务危机。
曾经创造出Stable Diffusion系列模型的Stability AI,目前面临前所未有的财务危机。
本文是对发表于模式识别领域顶刊Pattern Recognition 2024的最新综述论文:「Advancements in Point Cloud Data Augmentation for Deep Learning: A Survey 」的解读。
关于大模型分词(tokenization),大神Karpathy刚刚推荐了一篇必读新论文。
36氪获悉,AI医学影像企业「深智透医」(简称“深透”,Subtle Medical Inc.)近日完成B+轮近千万美元融资,由老股东Fusion Fund,新股东嘉加资本(ENVISIONX Capital)、蓝驰创投硅谷总部基金Bluerun Ventures、上海文周投资及其它亚太区域战略合作方共同投资。本轮融资将用于加速AI产品的全球商业落地及研发创新。
众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。
基于 Diffusion Transformer(DiT)又迎来一大力作「Flag-DiT」,这次要将图像、视频、音频和 3D「一网打尽」。
最少只需1个3D样例,即可生成3D主题乐园。
DeepMind新发布的AlphaFold 3是科技圈今天的绝对大热门,成为了Hacker News等许多科技媒体的头版头条。
这几天,AI届的盛会——ICLR在维也纳举办。
在机器学习社区中,ICLR (国际学习表征会议)是较为「年轻」的学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 在 2013 年牵头举办。但 ICLR 很快就获得了研究者的广泛认可,并且在 AI 圈拥有了深度学习会议「无冕之王」的称号。