AI资讯新闻榜单内容搜索-语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 语言模型
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等

Meta最近开源了多个AI项目,包括图像分割模型SAM 2.1、多模态语言模型Spirit LM、自学评估器和改进的跨语言句子编码器Mexma等,提升了AI在图像处理和语音识别领域的能力,进一步推动了AI研究的进展。

来自主题: AI技术研报
9840 点击    2024-11-27 16:50
微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

这篇文章研究了提示格式对大型语言模型(LLM)性能的影响。

来自主题: AI技术研报
6464 点击    2024-11-27 13:48
AI 冲击就业市场:是危机还是转机?

AI 冲击就业市场:是危机还是转机?

AI 冲击就业市场:是危机还是转机?

2022 年,以ChatGPT 大语言模型(LLM)的发布为标志, AI 神经网络的类人学习能力取得了里程碑式的进展,在全球范围内掀起了一股 AI 热潮。

来自主题: AI资讯
8820 点击    2024-11-27 12:33
大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

在人工智能领域,大语言模型(LLM)的向量嵌入能力一直被视为处理文本数据的利器。然而,斯坦福大学和Google DeepMind的研究团队带来了一个颠覆性发现:LLM的向量嵌入能力可以有效应用于回归任务。

来自主题: AI技术研报
6514 点击    2024-11-26 09:04
震撼!苏黎世联邦理工和DeepMind发现LLM存在"盲从效应",这可能颠覆我们对AI的认知 |COLM 2024

震撼!苏黎世联邦理工和DeepMind发现LLM存在"盲从效应",这可能颠覆我们对AI的认知 |COLM 2024

震撼!苏黎世联邦理工和DeepMind发现LLM存在"盲从效应",这可能颠覆我们对AI的认知 |COLM 2024

在当今人工智能迅猛发展的时代,大语言模型(LLMs)已成为众多AI应用的核心引擎。然而,来自ETH Zurich和Google DeepMind的一项最新研究揭示了一个令人深思的现象:这些看似强大的模型存在着严重的“盲从效应”。

来自主题: AI技术研报
6372 点击    2024-11-25 09:44
研究大模型门槛太高?不妨看看小模型SLM,知识点都在这

研究大模型门槛太高?不妨看看小模型SLM,知识点都在这

研究大模型门槛太高?不妨看看小模型SLM,知识点都在这

我们对小型语言模型的增强方法、已存在的小模型、应用、与 LLMs 的协作、以及可信赖性方面进行了详细调查。

来自主题: AI技术研报
7029 点击    2024-11-24 20:02
首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务

Meta最近开源了一个7B尺寸的Spirit LM的多模态语言模型,能够理解和生成语音及文本,可以非常自然地在两种模式间转换,不仅能处理基本的语音转文本和文本转语音任务,还能捕捉和再现语音中的情感和风格。

来自主题: AI技术研报
7283 点击    2024-11-22 14:41
NeurIPS 2024 | 水印与高效推理如何两全其美?最新理论:这做不到

NeurIPS 2024 | 水印与高效推理如何两全其美?最新理论:这做不到

NeurIPS 2024 | 水印与高效推理如何两全其美?最新理论:这做不到

近日,DeepMind 团队将水印技术和投机采样(speculative sampling)结合,在为大语言模型加入水印的同时,提升其推理效率,降低推理成本,因此适合用于大规模生产环境。

来自主题: AI技术研报
7403 点击    2024-11-22 10:14
手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

随着开源数据的日益丰富以及算力价格的持续下降,对于个人或小型机构而言,预训练一个小型的 LLM 已逐渐成为可能。开源中文预训练语言模型 Steel - LLM 就是一个典型案例,其模型参数量与数据量并非十分庞大,基本处于参数量为 B 级别、数据量为 T 级别的规模。

来自主题: AI技术研报
8306 点击    2024-11-22 09:44