AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革

Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革

Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革

科学家们把Transformer模型应用到蛋白质序列数据中,试图在蛋白质组学领域复制LLM的成功。本篇文章能够带你了解蛋白质语言模型(pLM)的起源、发展,以及那些尚待解决的问题。

来自主题: AI技术研报
11317 点击    2024-05-26 14:16
英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

英伟达赢麻了!马斯克xAI超级算力工厂曝光,10万块H100、数十亿美元

最近几年,随着大语言模型的飞速发展与迭代,科技巨头们都竞相投入巨额财力打造超级计算机(或大规模 GPU 集群)。他们认为,更强大的计算能力是实现更强大 AI 的关键。

来自主题: AI资讯
11088 点击    2024-05-26 13:46
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。

来自主题: AI技术研报
11463 点击    2024-05-26 13:45
AI大牛杨红霞离职创业,曾为字节和阿里大模型研发主力

AI大牛杨红霞离职创业,曾为字节和阿里大模型研发主力

AI大牛杨红霞离职创业,曾为字节和阿里大模型研发主力

36氪从多个独立信源处获悉,字节跳动大语言模型研发技术专家杨红霞,已于近日从字节跳动离职,并开始筹备AI创业项目。

来自主题: AI资讯
5722 点击    2024-05-25 10:58
腾讯PCG自研高性能大语言模型推理引擎「一念LLM」正式开源

腾讯PCG自研高性能大语言模型推理引擎「一念LLM」正式开源

腾讯PCG自研高性能大语言模型推理引擎「一念LLM」正式开源

以 OpenAI 的 GPT 系列模型为代表的大语言模型(LLM)掀起了新一轮 AI 应用浪潮,但是 LLM 推理的高昂成本一直困扰着业务团队。

来自主题: AI技术研报
10983 点击    2024-05-24 20:58
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐

从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐

从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐

在 AI 领域,扩展定律(Scaling laws)是理解 LM 扩展趋势的强大工具,其为广大研究者提供了一个准则,该定律在理解语言模型的性能如何随规模变化提供了一个重要指导。

来自主题: AI技术研报
5543 点击    2024-05-24 20:52
拯救被「掰弯」的GPT-4!西交微软北大联合提出IN2训练治疗LLM「中间迷失」

拯救被「掰弯」的GPT-4!西交微软北大联合提出IN2训练治疗LLM「中间迷失」

拯救被「掰弯」的GPT-4!西交微软北大联合提出IN2训练治疗LLM「中间迷失」

近日,西交微软北大联合提出信息密集型训练大法,使用纯数据驱动的方式,矫正LLM训练过程产生的偏见,在一定程度上治疗了大语言模型丢失中间信息的问题。

来自主题: AI技术研报
10051 点击    2024-05-22 13:08
让大模型理解手机屏幕,苹果多模态Ferret-UI用自然语言操控手机

让大模型理解手机屏幕,苹果多模态Ferret-UI用自然语言操控手机

让大模型理解手机屏幕,苹果多模态Ferret-UI用自然语言操控手机

此次,苹果提出的多模态大语言模型(MLLM) Ferret-UI ,专门针对移动用户界面(UI)屏幕的理解进行了优化,其具备引用、定位和推理能力。

来自主题: AI技术研报
6868 点击    2024-05-20 18:56
时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3

时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3

时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3

5月14日,开源的大语言模型Falcon 2发布,性能超越Llama 3,消息登上了Hacker News热榜第一。「猎鹰」归来,开源宇宙将会迎来新的霸主吗?

来自主题: AI技术研报
11229 点击    2024-05-20 16:14
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory

前几天,普林斯顿大学联合Meta在arXiv上发表了他们最新的研究成果——Lory模型,论文提出构建完全可微的MoE模型,是一种预训练自回归语言模型的新方法。

来自主题: AI技术研报
10862 点击    2024-05-20 16:10