AI资讯新闻榜单内容搜索-GE

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GE
LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年

Transformer模型自2017年问世以来,已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于其核心机制“注意力”的起源,学界存在争议,一些学者如Jürgen Schmidhuber主张自己更早提出了相关概念。

来自主题: AI技术研报
7986 点击    2024-12-13 14:24
专治大模型“套壳”!上海AI实验室等给LLM做“指纹识别”,模型剪枝、合并等也无所遁形

专治大模型“套壳”!上海AI实验室等给LLM做“指纹识别”,模型剪枝、合并等也无所遁形

专治大模型“套壳”!上海AI实验室等给LLM做“指纹识别”,模型剪枝、合并等也无所遁形

大模型“套壳”事件防不胜防,有没有方法可以检测套壳行为呢? 来自上海AI实验室、中科院、人大和上交大的学者们,提出了一种大模型的“指纹识别”方法——REEF(Representation Encoding Fingerprints)。

来自主题: AI技术研报
7692 点击    2024-12-13 11:24
Sora之后,苹果发布视频生成大模型STIV,87亿参数一统T2V、TI2V任务

Sora之后,苹果发布视频生成大模型STIV,87亿参数一统T2V、TI2V任务

Sora之后,苹果发布视频生成大模型STIV,87亿参数一统T2V、TI2V任务

Apple MM1Team 再发新作,这次是苹果视频生成大模型,关于模型架构、训练和数据的全面报告,87 亿参数、支持多模态条件、VBench 超 PIKA,KLING,GEN-3。

来自主题: AI技术研报
6305 点击    2024-12-12 21:57
AI翻译漫画:一家AI初创公司如何帮日本漫画走向全球

AI翻译漫画:一家AI初创公司如何帮日本漫画走向全球

AI翻译漫画:一家AI初创公司如何帮日本漫画走向全球

一家日本初创公司Orange正在使用Anthropic公司的旗舰大语言模型Claude帮助将漫画翻译成英文,使该公司能够在短短几天内为西方受众推出一部新作,而不是人工团队需要两到三个月的时间。

来自主题: AI资讯
9760 点击    2024-12-12 21:26
OpenAI深夜被狙,谷歌Gemini 2.0掀翻牌桌!最强智能体组团击毙o1

OpenAI深夜被狙,谷歌Gemini 2.0掀翻牌桌!最强智能体组团击毙o1

OpenAI深夜被狙,谷歌Gemini 2.0掀翻牌桌!最强智能体组团击毙o1

昨天深夜,OpenAI彻底被谷歌狙击,震撼亮相的Gemini 2.0掀起智能体革命,原生多模态的多项惊人demo预示着:智能体时代,谷歌已经走在了最前面。

来自主题: AI资讯
8540 点击    2024-12-12 14:59
谷歌Gemini再添猛将!GPA 5.0毕业即DeepMind高级科学家,开挂博士给科研新人7点建议

谷歌Gemini再添猛将!GPA 5.0毕业即DeepMind高级科学家,开挂博士给科研新人7点建议

谷歌Gemini再添猛将!GPA 5.0毕业即DeepMind高级科学家,开挂博士给科研新人7点建议

薛复昭博士宣布即将加入Google DeepMind,分享了他在博士生涯中的七点心得,包括工程能力的重要性、与优秀人才合作、专注于重要论文、研究趋势的演变、换位思考以及博士学位的价值。

来自主题: AI资讯
8798 点击    2024-12-12 14:44
Prompt"肿瘤"的克星:Language Hooks框架将工具与提示分离,增强LLM推理

Prompt"肿瘤"的克星:Language Hooks框架将工具与提示分离,增强LLM推理

Prompt"肿瘤"的克星:Language Hooks框架将工具与提示分离,增强LLM推理

开发AI应用的朋友们都有深刻的感受,在实际应用开发中,如何让LLM高效地使用外部工具,一直是困扰Prompt工程师的一个关键问题。最近,来自Faculty Science Ltd的研究团队提出的Language Hooks框架,为这个问题提供了一个令人耳目一新的解决方案。

来自主题: AI技术研报
7475 点击    2024-12-12 10:30
田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

一般而言,LLM 被限制在语言空间(language space)内进行推理,并通过思维链(CoT)来表达推理过程,从而解决复杂的推理问题。

来自主题: AI技术研报
8271 点击    2024-12-12 10:19