AI资讯新闻榜单内容搜索-AL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AL
这个大模型,真的治好了我的论文阅读障碍

这个大模型,真的治好了我的论文阅读障碍

这个大模型,真的治好了我的论文阅读障碍

今年 3 月份,英伟达 CEO 黄仁勋举办了一个非常特别的活动。他邀请开创性论文《Attention Is All You Need》的作者们齐聚 GTC,畅谈生成式 AI 的未来发展方向。

来自主题: AI资讯
6234 点击    2024-08-12 17:24
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

2017 年,谷歌在论文《Attention is all you need》中提出了 Transformer,成为了深度学习领域的重大突破。该论文的引用数已经将近 13 万,后来的 GPT 家族所有模型也都是基于 Transformer 架构,可见其影响之广。 作为一种神经网络架构,Transformer 在从文本到视觉的多样任务中广受欢迎,尤其是在当前火热的 AI 聊天机器人领域。

来自主题: AI资讯
6449 点击    2024-08-11 17:38
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
8886 点击    2024-08-11 13:25
ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

RLHF到底是不是强化学习?最近,AI大佬圈因为这个讨论炸锅了。和LeCun同为质疑派的Karpathy表示:比起那种让AlphaGo在围棋中击败人类的强化学习,RLHF还差得远呢。

来自主题: AI资讯
6531 点击    2024-08-10 10:32
八问八答搞懂Transformer内部运作原理

八问八答搞懂Transformer内部运作原理

八问八答搞懂Transformer内部运作原理

七年前,论文《Attention is all you need》提出了 transformer 架构,颠覆了整个深度学习领域。

来自主题: AI技术研报
8763 点击    2024-08-07 14:31