中国首个通用泛化机器人终于来了!清华校友打造中国版Figure 01,连续泛化丝滑处理多任务
中国首个通用泛化机器人终于来了!清华校友打造中国版Figure 01,连续泛化丝滑处理多任务中国首个拥有真正意义多任务连续泛化具身模型的机器人,诞生了!这个机器人,是真正由模型训练出来的,据了解,截止目前除了Figure 01,国内似乎还没有第二家能做到这种级别的泛化能力,即使被百般刁难,都能完成任务。清华校友下场创业,才4个月就已融资近2亿。
中国首个拥有真正意义多任务连续泛化具身模型的机器人,诞生了!这个机器人,是真正由模型训练出来的,据了解,截止目前除了Figure 01,国内似乎还没有第二家能做到这种级别的泛化能力,即使被百般刁难,都能完成任务。清华校友下场创业,才4个月就已融资近2亿。
单元测试是软件开发流程中的一个关键环节,主要用于验证软件中的最小可测试单元,函数或模块是否按预期工作。单元测试的目标是确保每个独立的代码片段都能正确执行其功能,对于提高软件质量和开发效率具有重要意义。
KV Cache 是大模型推理性能优化的一个常用技术,该技术可以在不影响任何计算精度的前提下,通过空间换时间的思想,提高推理性能。
AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。
该论文作者均来自于华南理工大学马千里教授团队,所在实验室为机器学习与数据挖掘实验室。论文的三位共同第一作者为博士生郑俊豪、硕士生邱圣洁、硕士生施成明,主要研究方向包括大模型和终生学习等,通讯作者为马千里教授(IEEE/ACM TASLP 副主编)。
本文第一作者为香港大学博士研究生谢知晖,主要研究兴趣为大模型对齐与强化学习。
Transformer 在深度学习领域取得巨大成功的关键是注意力机制。注意力机制让基于 Transformer 的模型关注与输入序列相关的部分,实现了更好的上下文理解。然而,注意力机制的缺点是计算开销大,会随输入规模而二次增长,Transformer 也因此难以处理非常长的文本。
罗盟,本工作的第一作者。新加坡国立大学(NUS)人工智能专业准博士生,本科毕业于武汉大学。主要研究方向为多模态大语言模型和 Social AI、Human-eccentric AI。
让AI像人类一样借助多模态线索定位感兴趣的物体,有新招了!
本文的主要作者来自香港大学的数据智能实验室 (Data Intelligence Lab@HKU)。