AI资讯新闻榜单内容搜索-NLP

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: NLP
ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯

ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯

ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯

今年 1 月份,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,斯坦福大学语言学和计算机科学教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获奖。

来自主题: AI技术研报
8527 点击    2024-05-04 20:08
华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍

基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复杂度使得大模型的推理成本和内存占用十分巨大,特别是在长序列的场景中。

来自主题: AI技术研报
4773 点击    2024-04-03 17:29
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
4121 点击    2024-03-11 17:31
语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

伴随着生成式深度学习模型的飞速发展,自然语言处理(NLP)和计算机视觉(CV)已经经历了根本性的转变,从有监督训练的专门模型,转变为只需有限的明确指令就能完成各种任务的通用模型

来自主题: AI技术研报
4069 点击    2024-02-15 21:45
Transformer的无限之路:位置编码视角下的长度外推综述

Transformer的无限之路:位置编码视角下的长度外推综述

Transformer的无限之路:位置编码视角下的长度外推综述

在自然语言处理(Natural Language Processing,NLP)领域,Transformer 模型因其在序列建模中的卓越性能而受到广泛关注。

来自主题: AI技术研报
8352 点击    2024-01-16 10:13
解读AI大模型,从了解token开始

解读AI大模型,从了解token开始

解读AI大模型,从了解token开始

我基于结合大量示例及可视化的图形手段给大家科普了AI大模型的相关算法和核心概念。

来自主题: AI资讯
3024 点击    2024-01-13 11:07