
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。
挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。
对大模型进行量化、剪枝等压缩操作,是部署时最常见不过的一环了。
刚刚发布的AI人才报告显示,全世界的顶尖AI人才中,几乎每两人中就有一人是中国培养出的人才!开卷后,美国码农们也都被迫开启了地狱模式,为一个offer面试12场。
继千万粉丝博主、自称是“清华大学博士”,被网友戏称为“中国AI搞钱第一人”的李一舟被央视点名、全网AI课程被下架后,日前AI科学家、出门问问创始人李志飞也开始销售起AI课程。
近期,清华大学和哈尔滨工业大学联合发布了一篇论文:把大模型压缩到 1.0073 个比特时,仍然能使其保持约 83% 的性能!
2023 年年底,很多人都预测,未来一年将是视频生成快速发展的一年。但出人意料的是,农历春节刚过,OpenAI 就扔出了一个重磅炸弹 —— 能生成 1 分钟流畅、逼真视频的 Sora。
近日,声名鹊起的“中国AI第一人”李一舟的AI课程突然被下架,同时,李一舟个人视频号也已被禁止关注。
成功从过去的经验中提取知识并将其应用于未来的挑战,这是人类进化之路上重要的里程碑。那么在人工智能时代,AI 智能体是否也可以做到同样的事情呢?
现有的语义分割技术在评估指标、损失函数等设计上都存在缺陷,研究人员针对相关缺陷设计了全新的损失函数、评估指标和基准,在多个应用场景下展现了更高的准确性和校准性。
一个体量仅为2B的大模型,能有什么用?答案可能超出你的想象。