正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完
正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完GPT-4V风头正盛,LLaVA-1.5就来踢馆了!它不仅在11个基准测试上都实现了SOTA,而且13B模型的训练,只用8个A100就可以在1天内完成。
GPT-4V风头正盛,LLaVA-1.5就来踢馆了!它不仅在11个基准测试上都实现了SOTA,而且13B模型的训练,只用8个A100就可以在1天内完成。
悄无声息,羊驼家族“最强版”来了! 与GPT-4持平,上下文长度达3.2万token的LLaMA 2 Long,正式登场。
我用GPT和提示词工程搭建了一款AI绘画提词器,比如输出“产品经理”,提词器会从6个维度展开提示词联想,任何一个关键词都配置了GPT推荐的一个解释。
GPT-4太吃算力,微软被爆内部制定了Plan B,训练更小、成本更低的模型,进而摆脱OpenAI。
在18 项不同的任务中,使用ChatGPT-4 的咨询顾问平均多完成了 12.2% 的任务,完成任务的速度提高了 25.1%,成果质量提高了 40%。这项突破性的前沿研究表明,人工智能将在未来几年对职业工作产生巨大影响。研究者称,明年至少会有两家公司推出比 GPT-4 更强大的AI。
新华社研究院发布了《人工智能大模型体验报告2.0》,对国内主流大模型进行使用体验的横向测评。该榜单用500道题目评测了国内8款主流AI大模型,最终讯飞星火排名第一,百度文心一言排名第二,阿里通义千问排在倒数第二。
《华尔街日报》报道,Meta 公司一直在抢购人工智能训练芯片并建立数据中心,以创建一个与chatGPT 4.0一样强大的新AI。
一经发布,地表最强开源模型Falcon 180B直接霸榜HF。3.5万亿token训练,性能直接碾压Llama 2。
刚刚,陶哲轩大赞:用ChatGPT写Python代码,效果真是太好了,它直接为我节省了数学研究中半小时的工作量!
对于CEO来说,如果他们听到有竞争对手的产品可能把自己的产品击败,这将是一件让人非常上火的事情。最近Openai 的ceo Sam Altman就遇到了这样的情况。