微软祭出代码大模型WaveCoder!4项代码任务2万个实例数据集,让LLM泛化能力飙升
微软祭出代码大模型WaveCoder!4项代码任务2万个实例数据集,让LLM泛化能力飙升指令调优或许是让大模型性能提升最有潜力的方法。用高质量数据集进行指令调优,能让大模型性能快速提升。
搜索
指令调优或许是让大模型性能提升最有潜力的方法。用高质量数据集进行指令调优,能让大模型性能快速提升。
大模型推理再次跃升一个新台阶!最近,全新开源的国产SwiftInfer方案,不仅能让LLM处理无限流式输入,而且还将推理性能提升了46%。
2023 年,是机器学习和人工智能发展最为迅速的一年,这里分享 10 篇最值得关注的论文。
大模型没有壁垒,结合多年深耕的场景和数据处理技术才是王道。
前不久,OpenAI“煞有其事”地像谷歌、苹果那样办了第一场较为正式的“开发者大会”。从大会透露的信息来看,大模型的下一站很明确——想搞钱,得教人“玩”大模型了,拉更多的人来做大大模型市场的蛋糕。
同济大学王昊奋研究员团队联合复旦大学熊赟教授团队发布检索增强生成(RAG)综述,从核心范式,关键技术到未来发展趋势对 RAG 进行了全面梳理。这份工作为研究人员绘制了一幅清晰的 RAG 技术发展蓝图,指出了未来的研究探索方向。
谷歌新设计的一种图像生成模型已经能做到这一点了!通过引入指令微调技术,多模态大模型可以根据文本指令描述的目标和多张参考图像准确生成新图像,效果堪比 PS 大神抓着你的手助你 P 图。
进入现今的大模型 (LLM) 时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法 SPIN(Self-Play Fine-Tuning),可不使用额外微调数据,仅靠自我博弈就能大幅提升 LLM 的能力。
iPhone迎来AI时刻?岁末年初,苹果加快了在大模型领域的步伐。
大模型元年里,哪怕是跑在趋势最前沿的基座模型厂商,都难逃算力焦虑。