AI资讯新闻榜单内容搜索-o1

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: o1
o1 的野路子:用语言模型做动画

o1 的野路子:用语言模型做动画

o1 的野路子:用语言模型做动画

冬天来了,家里下雪了吗?

来自主题: AI技术研报
6162 点击    2025-01-04 16:26
Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

2023 年初,Jason Wei 加入了 OpenAI,参与了 ChatGPT 的构建以及 o1 等重大项目。他的工作使思维链提示、指令微调和涌现现象等技术和概念变得广为人知。

来自主题: AI资讯
6036 点击    2025-01-04 14:32
微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B

微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B

微软论文意外「走光」,OpenAI参数全泄密!GPT-4o仅200B,o1 300B

穿越重重迷雾,OpenAI模型参数终被揭开!一份来自微软华盛顿大学医疗论文,意外曝光了GPT-4、GPT-4o、o1系列模型参数。让所有人震惊不已的是,GPT-4o mini仅8B。

来自主题: AI技术研报
6219 点击    2025-01-02 17:23
联手OpenAI,吴恩达推出一门o1推理新课程,还免费

联手OpenAI,吴恩达推出一门o1推理新课程,还免费

联手OpenAI,吴恩达推出一门o1推理新课程,还免费

在刚刚过去的 2024 年,OpenAI 推出了 o 系列模型。相比于以往大型语言模型,o 系列模型使用更多的计算进行更深入的「思考」,能够回答更复杂、更细致的问题。

来自主题: AI资讯
7851 点击    2025-01-02 14:53
4o-mini只有8B,o1也才300B!微软论文意外曝光GPT核心机密

4o-mini只有8B,o1也才300B!微软论文意外曝光GPT核心机密

4o-mini只有8B,o1也才300B!微软论文意外曝光GPT核心机密

微软又把OpenAI的机密泄露了??在论文中明晃晃写着: o1-preview约300B参数,GPT-4o约200B,GPT-4o-mini约8B……

来自主题: AI技术研报
6932 点击    2025-01-02 14:03
OpenAI o1「作弊」修改系统,强行击败专业象棋AI!全程无需提示

OpenAI o1「作弊」修改系统,强行击败专业象棋AI!全程无需提示

OpenAI o1「作弊」修改系统,强行击败专业象棋AI!全程无需提示

在与专用国际象棋引擎Stockfish测试中,只因提示词中包含能力「强大」等形容词,o1-preview入侵测试环境,直接修改比赛数据,靠「作弊」拿下胜利。这种现象,表明AI安全任重道远。

来自主题: AI技术研报
7159 点击    2025-01-01 17:28
我用8道变态烧脑题,测出了o1的国内最强平替

我用8道变态烧脑题,测出了o1的国内最强平替

我用8道变态烧脑题,测出了o1的国内最强平替

我本来以为今年的模型考核就到这儿了,没想到老朋友智谱在 2024 年最后一天又整活儿了,突然就发布了 GLM 系列的类 o1 模型——GLM-Zero-Preview。

来自主题: AI资讯
6916 点击    2025-01-01 12:45
2024的最后一天,由智谱AI新上线的o1为这一年划上句点。

2024的最后一天,由智谱AI新上线的o1为这一年划上句点。

2024的最后一天,由智谱AI新上线的o1为这一年划上句点。

当你登录智谱清言的时候,就能看到他们上线了这个Zero推理模型,不过是以智能体的形式出现的。

来自主题: AI资讯
7072 点击    2024-12-31 15:26
DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet对比实测来了

DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet对比实测来了

DeepSeek V3获竞技场最强开源认证!与Claude 3.5 Sonnet对比实测来了

国产之光DeepSeek V3竞技场排名新鲜出炉—— 优于o1-mini(总榜第7),获最强开源模型认证(也是唯一闯入前10的开源模型)。

来自主题: AI资讯
6417 点击    2024-12-31 14:49
斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

随着 o1、o1 Pro 和 o3 的成功发布,我们明显看到,推理所需的时间和计算资源逐步上升。可以说,o1 的最大贡献在于它揭示了提升模型效果的另一种途径:在推理过程中,通过优化计算资源的配置,可能比单纯扩展模型参数更为高效。

来自主题: AI技术研报
8255 点击    2024-12-30 14:32