AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

AI世界的进化快的有点跟不上了。刚刚,全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程。更厉害的是,WSE-3打造的单个超算可训出24万亿参数模型,相当于GPT-4/Gemini的十倍大。

来自主题: AI资讯
10302 点击    2024-03-15 12:34
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI

LLM开源从Infra做起!Meta公布了自己训练Llama 3的H100集群细节,看来Llama 3快来了。

来自主题: AI技术研报
4778 点击    2024-03-15 12:25
全球首个OpenAI机器人诞生!Figure 01碾压马斯克擎天柱,10亿机器人大军正式启动

全球首个OpenAI机器人诞生!Figure 01碾压马斯克擎天柱,10亿机器人大军正式启动

全球首个OpenAI机器人诞生!Figure 01碾压马斯克擎天柱,10亿机器人大军正式启动

OpenAI上一笔融资不到八个月,Figure就来交卷了!这个机器人能说会动,还能自主推理,给自己布置任务。最炸裂的是,它完全是自主行动,没有远程控制!1.0倍速的原视频一出,网友们震惊了。

来自主题: AI资讯
9434 点击    2024-03-15 12:00
LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!

新模型bGPT是一个基于字节的Transformer模型,能够将不同类型的数据纳入同一框架之下,可以生成文本、图像和音频,还能模拟计算机行为,数字世界将迎来真正的大一统?

来自主题: AI技术研报
11483 点击    2024-03-13 14:53
用大模型测试人格/抑郁/认知模式!通过游戏剧情发展测量心理特质|清华出品

用大模型测试人格/抑郁/认知模式!通过游戏剧情发展测量心理特质|清华出品

用大模型测试人格/抑郁/认知模式!通过游戏剧情发展测量心理特质|清华出品

随着大语言模型(LLM)的发展,很多研究发现LLM能够展现出稳定的人格特质,模仿人类细微的情绪与认知模式,还能辅助各种各样的社会科学仿真实验,为教育心理学、社会心理学、文化心理学、临床心理学、心理咨询等诸多心理学研究领域,提供了新的研究思路。

来自主题: AI技术研报
4686 点击    2024-03-13 11:15
OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱

刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!

来自主题: AI资讯
4963 点击    2024-03-12 18:34
「图结构学习」新思路!港大等提出GraphEdit模型:用LLM删除噪声边,全局理解节点间依赖关系

「图结构学习」新思路!港大等提出GraphEdit模型:用LLM删除噪声边,全局理解节点间依赖关系

「图结构学习」新思路!港大等提出GraphEdit模型:用LLM删除噪声边,全局理解节点间依赖关系

GraphEdit方法可以有效地去除图网络中的噪声连接,还能从全局视角识别节点间的依赖关系,在不同的实验设置中都被验证为有效且稳健。

来自主题: AI技术研报
7692 点击    2024-03-11 17:34
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
5570 点击    2024-03-11 17:31
当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

当prompt策略遇上分治算法,南加大、微软让大模型炼成「火眼金睛」

近年来,大语言模型(LLMs)由于其通用的问题处理能力而引起了大量的关注。现有研究表明,适当的提示设计(prompt enginerring),例如思维链(Chain-of-Thoughts),可以解锁 LLM 在不同领域的强大能力。

来自主题: AI资讯
6095 点击    2024-03-11 17:28