
全球最强大模型一夜易主,GPT-4时代终结?
全球最强大模型一夜易主,GPT-4时代终结?Anthropic发布了最新的Claude 3系列模型,一句话评价:真·全面碾压GPT-4。
Anthropic发布了最新的Claude 3系列模型,一句话评价:真·全面碾压GPT-4。
开源(OS)正在驱动生成式 AI 的创新。得益于像 GitHub 和 Hugging Face 等学术研究平台,我们得以见证 AI 技术的蓬勃发展。但值得注意的是,OpenAI、Anthropic 等越来越多的科技公司选择不公开模型的代码和权重。
AGI若到来,人类是否会受到威胁,是一个大众热衷讨论同时研究者们也很关注的问题,从各个角度对此的研究几乎都会引发人们的讨论。最新的一个重磅研究来自今天最重要的大模型公司之一Anthropic。
最近,Anthropic的研究者发现:一旦我们教会LLM学会骗人,就很难纠正它了。它会在训练过程中表现得「人畜无害」,随后神不知鬼不觉地输出恶意代码!如果想要纠正它,它的欺骗行为只会更变本加厉。
最近,AI初创公司Anthropic的研究表明,一旦LLM学会了人类教授的欺骗行为,它们就会在训练和评估的过程中隐藏自己,并在使用时偷偷输出恶意代码、注入漏洞。
人们一方面期待xAI如何走出一条区别于OpenAI的路,另一面也对马斯克所描绘的愿景抱有困惑,毕竟OpenAI珠玉在前,马斯克如何解决人工智能的安全问题,在商业化与伦理中找到更好的解决方案?
Anthropic的模型可解释性团队,从大模型中看到了它的「灵魂」——一个可解释的更高级的模型。
月初刚测了GPT-4 Turbo上下文真实实力的大神Greg Kamradt又盯上了Anthropic刚更新的Claude 2.1。他自己花了1016刀测完之后显示,Claude 2.1在上下文长度达到90K后,性能就会出现明显下降。
有一家公司,OpenAI、Anthropic、Cohere、Aleph Alpha(欧洲顶尖大模型公司)和Hugging Face的模型训练和微调都离不开它,NVIDIA和谷歌云(GCP)都是它的深度合作伙伴,它是支持生成式AI明星公司们训练模型的幕后英雄。
算力紧缺、成本制约、商业变现,这或许也是几乎所有AI企业所面临的现状。