没想到吧,中文互联网上最好的大模型语料库是:弱智吧
没想到吧,中文互联网上最好的大模型语料库是:弱智吧如果让你在互联网上给大模型选一本中文教材,你会去哪里取材?是知乎,是豆瓣,还是微博?一个研究团队为了构建高质量的中文指令微调数据集,对这些社交媒体进行了测试,想找到训练大模型最好的中文预料,结果答案保证让你大跌眼镜——
搜索
如果让你在互联网上给大模型选一本中文教材,你会去哪里取材?是知乎,是豆瓣,还是微博?一个研究团队为了构建高质量的中文指令微调数据集,对这些社交媒体进行了测试,想找到训练大模型最好的中文预料,结果答案保证让你大跌眼镜——
「被门夹过的核桃,还能补脑吗?」
要不他们可能就跳槽到 OpenAI 了。当全球首富埃隆・马斯克(Elon Musk)建立 xAI,准备与 OpenAI、谷歌竞争大模型时,他必须与众多科技巨头、初创公司争夺人才。不过,他使用了一些取巧的办法:从自家的特斯拉挖来了几名优秀工程师。
鄙视谷歌、理解谷歌、成为谷歌。
OpenAI的竞争对手Anthropic发现了一种称为"多样本越狱攻击"的漏洞,可以绕过大型语言模型的安全防护措施。这种攻击利用了模型的长上下文窗口,通过在提示中添加大量假对话来引导模型产生有害的反应。虽然已经采取了一些缓解措施,但该漏洞仍然存在。
基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。
苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。
又一项针对AI模型的数学奥赛来了!只要在50道题中做出3道,就有可能把百万美元大奖抱回家。题目难度为人类的高中学术竞赛难度,包括基础算术、代数思维和几何推理。欢迎AI模型们踊跃报名。
就在刚刚,Anthropic发现了大模型的惊人漏洞。经过256轮对话后,Claude 2逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。
大模型厂商在上下文长度上卷的不可开交之际,一项最新研究泼来了一盆冷水——Claude背后厂商Anthropic发现,随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。无论是闭源的GPT-4和Claude 2,还是开源的Llama2和Mistral,都未能幸免。