LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token
大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token
Characater.ai 网站每日活跃用户超 350 万,很多用户在过去一年向其发送了超千万条消息,Characater.ai,似乎正在悄悄改变人类和 AI 的关系,不能再被简单定义为偏工具属性的对话机器人。
近日,CMU Catalyst 团队推出了一篇关于高效 LLM 推理的综述,覆盖了 300 余篇相关论文,从 MLSys 的研究视角介绍了算法创新和系统优化两个方面的相关进展。
所谓灾难性遗忘,就是一个在原始任务上训练好的神经网络在训练完新任务后,在原始任务上的表现崩溃式的降低。
Meta谷歌接连放出重磅成果!Meta开源无缝交流语音翻译模型,谷歌放出无监督语音翻译重大突破Translation 3。
2023年10月31日,诺华生物医学研究所和微软研究院科学智能中心的研究人员合作,在 Nature Communications 期刊发表了题为:Extracting medicinal chemistry intuition via preference machine learning 的研究论文。
清华大学自动化系汪小我团队在 Nature Communications 期刊发表论文,研究提出了一种将专家知识与大数据学习相融合的合成启动子人工智能辅助设计方法——DeepSEED
Beducated的AI性健康教练提供来自该网站100多门在线性健康课程的建议,涵盖从”不可描述“到”不可描述“游戏等各种主题。如果你没有买Beducated的会员,你可以免费向这个聊天机器人发送最多10条消息
Modular Inc. 是一种名为 Mojo 的人工智能编程语言的开发商,最近在 General Catalyst 领投的一轮融资中获得了 1 亿美元(约 7 亿人民币)的资金,Alphabet Inc. 的 GV 初创基金和其他机构支持者也参与其中。