AI资讯新闻榜单内容搜索-Ed

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ed
低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法

低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法

低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法

EdgeNet可以处理从干净的自然图像或嘈杂的对抗性图像中提取的边缘,产生鲁棒的特征,具有轻量级、即插即用等特点,能够无缝集成到现有的预训练深度网络中,训练成本低。

来自主题: AI资讯
9602 点击    2024-04-08 16:17
AI+下一代精准肿瘤学研究|Aignostics与拜耳共同创建新型靶点识别平台

AI+下一代精准肿瘤学研究|Aignostics与拜耳共同创建新型靶点识别平台

AI+下一代精准肿瘤学研究|Aignostics与拜耳共同创建新型靶点识别平台

2024年3月14日,拜耳与德国Aignostics GmbH宣布将就几项应用于精准肿瘤药物研发的人工智能方法展开战略合作。Aignostics是世界一流医院柏林夏里特大学(Charité-Universitätsmedizin Berlin)的衍生公司,也是利用计算病理学将复杂的生物医学数据转化为生物学见解的全球领先企业。

来自主题: AI资讯
5843 点击    2024-03-28 12:59
阿里云&魔搭社区×特工宇宙丨Multi-agent AI 创客松来了!

阿里云&魔搭社区×特工宇宙丨Multi-agent AI 创客松来了!

阿里云&魔搭社区×特工宇宙丨Multi-agent AI 创客松来了!

LLM-Powered Agent凭借长期记忆+自主规划+自动执行等特性,是探索人工通用智能(AGI)的可能途径之一。从单一智能体到多智能体的迭代,是实现AI执行更多更复杂的工作的重要跨越。

来自主题: AI技术研报
10024 点击    2024-03-26 14:32
剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

剑桥团队开源:赋能多模态大模型RAG应用,首个预训练通用多模态后期交互知识检索器

PreFLMR模型是一个通用的预训练多模态知识检索器,可用于搭建多模态RAG应用。模型基于发表于 NeurIPS 2023 的 Fine-grained Late-interaction Multi-modal Retriever (FLMR) 并进行了模型改进和 M2KR 上的大规模预训练。

来自主题: AI资讯
10308 点击    2024-03-25 17:01
百度5款大模型上新,更小更便宜!还可1分钟零代码打造Agent应用

百度5款大模型上新,更小更便宜!还可1分钟零代码打造Agent应用

百度5款大模型上新,更小更便宜!还可1分钟零代码打造Agent应用

零代码1分钟,构建一个Agent应用。做一个“英语作文批改小帮手”应用,只需在AppBuilder中输入应用名称或者希望开发的功能,平台就能自动生成应用。

来自主题: AI资讯
6450 点击    2024-03-22 16:34
让腾讯和Altman大赚,被AI巨头“疯抢”,2024最大科技股IPO 来了

让腾讯和Altman大赚,被AI巨头“疯抢”,2024最大科技股IPO 来了

让腾讯和Altman大赚,被AI巨头“疯抢”,2024最大科技股IPO 来了

今年美国首个大型科技公司IPO来了:当地时间3月21日,著名社交媒体网站Reddit在纽交所敲钟上市。股票代码「RDDT」,以每股34美元出售2200万股,募资7.48亿美元。并在首日交易中一鸣惊人,盘中最高暴涨62.9%至每股55.39美元,最终以50.44美元股价高收。也使得公司市值从预估的65亿美元飙到95亿美元,完成了它强劲的IPO首秀。

来自主题: AI资讯
6466 点击    2024-03-22 15:16
拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造

年 5 月,动动鼠标就能让图片变「活」得研究 DragGAN 吸引了 AI 圈的关注。通过拖拽,我们可以改变并合成自己想要的图像,比如下图中让一头狮子转头并张嘴!

来自主题: AI资讯
8734 点击    2024-03-18 20:14
总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

总结374篇相关工作,陶大程团队联合港大、UMD发布LLM知识蒸馏最新综述

早在 2020 年,陶大程团队就发布了《Knowledge Distillation: A Survey》,详细介绍了知识蒸馏在深度学习中的应用,主要用于模型压缩和加速。随着大语言模型的出现,知识蒸馏的作用范围不断扩大,逐渐扩展到了用于提升小模型的性能以及模型的自我提升。

来自主题: AI技术研报
4448 点击    2024-03-16 15:28