AI资讯新闻榜单内容搜索-微调模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 微调模型
突破开放世界移动操作!首个室内移动抓取多模态智能体亮相,微调模型真实环境零样本动作准确率达 90%

突破开放世界移动操作!首个室内移动抓取多模态智能体亮相,微调模型真实环境零样本动作准确率达 90%

突破开放世界移动操作!首个室内移动抓取多模态智能体亮相,微调模型真实环境零样本动作准确率达 90%

在家庭服务机器人领域,如何让机器人理解开放环境中的自然语言指令、动态规划行动路径并精准执行操作,一直是学界和工业界的核心挑战。

来自主题: AI技术研报
5773 点击    2025-06-21 16:56
砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

只要微调模型生成的前8-32个词,就能让大模型推理能力达到和传统监督训练一样的水平?

来自主题: AI技术研报
6634 点击    2025-03-12 13:41
让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

让模型部署像调用API一样简单!1小时轻松完成超100个微调模型部署的神器来了,按量计费每月立省10万

大家可能看到过很多类似的结论:针对特定任务,对开源模型进行 LoRA 微调可以干翻 GPT-4 这类闭源模型。

来自主题: AI资讯
7065 点击    2025-01-09 09:37
80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

80G显存塞50个7B大模型!清华&OpenBMB开源增量压缩新算法,显存节省8倍

最新模型增量压缩技术,一个80G的A100 GPU能够轻松加载多达50个7B模型,节省显存约8倍,同时模型性能几乎与压缩前的微调模型相当。

来自主题: AI技术研报
7276 点击    2024-11-29 13:58
全球最强开源模型一夜易主,1320亿参数推理飙升2倍!

全球最强开源模型一夜易主,1320亿参数推理飙升2倍!

全球最强开源模型一夜易主,1320亿参数推理飙升2倍!

【新智元导读】就在刚刚,全球最强开源大模型王座易主,创业公司Databricks发布的DBRX,超越了Llama 2、Mixtral和Grok-1。MoE又立大功!这个过程只用了2个月,1000万美元,和3100块H100。

来自主题: AI技术研报
7664 点击    2024-03-28 16:09
微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软仅凭「提示工程」让GPT-4成医学专家!超过一众高度微调模型,专业测试准确率首次超90%

微软最新研究再次证明了提示工程的威力——无需额外微调,无需专家策划,仅凭提示,GPT-4就能化身“专家”。

来自主题: AI资讯
6241 点击    2023-12-04 13:53