开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma 开源1.6B小模型「小狐狸」,表现超同类模型Qwen和Gemma 关键词: AI,Fox,小狐狸模型,TensorOpera,小模型 自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。 来自主题: AI技术研报 6780 点击 2024-12-08 12:20