
揭秘transformer专用ASIC芯片:Sohu!
揭秘transformer专用ASIC芯片:Sohu!2022年,我们打赌说transformer会统治世界。 我们花了两年时间打造Sohu,这是世界上第一个用于transformer(ChatGPT中的“T”)的专用芯片。
2022年,我们打赌说transformer会统治世界。 我们花了两年时间打造Sohu,这是世界上第一个用于transformer(ChatGPT中的“T”)的专用芯片。
高瞻远瞩也好、盲目跟风也罢,继OpenAI携ChatGPT掀起AIGC热潮之后,如何用AI“赋能”自家业务就成为这两年各行各业的一个共同命题,其中自然也包括一众本地生活服务平台。此前在今年4月,饿了么零售商家SAAS平台“翱象”面向商家推出“AI经营助手”功能。
过去一段时间,“预训练终结”成为了 AI 领域最热烈的讨论之一。OpenAI的GPT系列模型此前大踏步的前进,预训练是核心推动力。而前 OpenAI 首席科学家 Ilya Sutskever、预训练和scaling law(规模定律)最忠实的倡导者,却宣称预训练要终结了、scaling law要失效。由此,引发了大量争议。
穿越重重迷雾,OpenAI模型参数终被揭开!一份来自微软华盛顿大学医疗论文,意外曝光了GPT-4、GPT-4o、o1系列模型参数。让所有人震惊不已的是,GPT-4o mini仅8B。
2024年,我们居然进步这么大。
GPT-4o仅得分64.5,其余模型均未及格! 全面、细粒度评估模型多模态长文档理解能力的评测集来了~ 名为LongDocURL,集成了长文档理解、数值推理和跨元素定位三个主任务,并包含20个细分子任务。
微软又把OpenAI的机密泄露了??在论文中明晃晃写着: o1-preview约300B参数,GPT-4o约200B,GPT-4o-mini约8B……
OpenAI发布旗舰推理模型o3和o3-mini,成为他们2024年的收官之作,制造了一波小热潮。和往常一样,Twitter (x.com)依然是外网讨论的主阵地。
奥特曼说,Sora代表了视频生成大模型的GPT-1时刻。
奥特曼称他是爱因斯坦级别的天才;OpenAI总裁更是直言: 只要他想要的,我们都给。 Alec Radford大神离职OpenAI,现在牵出更多细节: 改变世界的GPT,竟然是在Jupyter notebook上诞生的。