DeepMind的新AI研究:人类最后的自留地失守了?
DeepMind的新AI研究:人类最后的自留地失守了?喂给大模型语料——最初是维基百科和Reddit,后来扩展到音频、视觉图像甚至雷达和热图像——后者广义上说是换了种表达方式的语言。也因此有生成式AI的创业者认为,一个极度聪明的大语言模型就是那个通往AGI最终答案,多模态的研究道路只是目前对前者的底气不足。
喂给大模型语料——最初是维基百科和Reddit,后来扩展到音频、视觉图像甚至雷达和热图像——后者广义上说是换了种表达方式的语言。也因此有生成式AI的创业者认为,一个极度聪明的大语言模型就是那个通往AGI最终答案,多模态的研究道路只是目前对前者的底气不足。
UCLA等机构研发的Chameleon框架,在AI界引起广泛关注,获得超过100次学术引用,AlphaSignal评选其为「周最佳论文」。
22岁大学生Edward Tian开发了一个名为GPTZero的AI应用,用于检测文本是否由AI生成。该应用引发了全球学生的关注和争议,以及教师们对作弊工具的担忧。然而,Tian也因此创办了公司GPTZero并获得了350万美元的风投基金。文章探讨了学生和教师对AI在学术中应用的不同态度,并介绍了GPTZero的工作原理以及对抗AI检测的努力。
现在连文档都有大模型了,还是高分辨率、多模态的那种!不仅能准确识别出图像里的信息,还能结合用户需求调用自己的知识库来回答问题。
DeepSpeed-FastGen结合MII和DeepSpeed-Inference实现LLM高吞吐量文本生成。
今天,国际顶级医学期刊《自然医学》(Nature Medicine)刊登论文,介绍了阿里达摩院(湖畔实验室)联合国内外十多家医疗机构取得的成果
机器学习泰斗Michael Jordan发表了题为Contracts, Uncertainty, and Incentives in Decentralized Machine Learning(去中心化机器学习中的契约、不确定性和激励)的主旨报告,该报告从统计学、经济学和博弈论等独特视角阐释了如何应对机器学习中的不确定性。
提到视频生成,很多人首先想到的可能是 Gen-2、Pika Labs。但刚刚,Meta 宣布,他们的视频生成效果超过了这两家,而且编辑起来还更加灵活。
根据一篇推特文章报道,社交媒体巨头 Meta 推出了用于内容编辑和生成的最新人工智能 (AI) 模型。 该公司正在推出两种人工智能驱动的生成模型,一个是 Emu Video,利用 Meta 之前的 Emu 模型,能够根据文本和图像输入生成视频剪辑;另一个是模型 Emu Edit 专注于图像处理,有望提高图像编辑的精度。
自ChatGPT爆火以来,AI生图的功能受到越来越多年轻人的青睐,国外的顶级AI设计软件Midjourney、StableDiffusion或许成为设计师助手,但在国内、在注重社交的当下,AI生图、AI写真等功能则受到越来越多消费者的喜爱。