AI资讯新闻榜单内容搜索-AL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AL
OpenAI惊天剽窃!20岁创始人自曝代码结构被抄袭,多智能体Swarm陷争议

OpenAI惊天剽窃!20岁创始人自曝代码结构被抄袭,多智能体Swarm陷争议

OpenAI惊天剽窃!20岁创始人自曝代码结构被抄袭,多智能体Swarm陷争议

OpenAI好不容易开源了一次,却被曝出剽窃? 就在昨天,OpenAI应用AI研究员Shyamal Anadkat ,放出了全新多智能体框架——Swarm,瞬间在全网爆火。

来自主题: AI资讯
3462 点击    2024-10-14 09:42
微软推出AI医疗工具全家桶,预览医疗数据方向5大新功能

微软推出AI医疗工具全家桶,预览医疗数据方向5大新功能

微软推出AI医疗工具全家桶,预览医疗数据方向5大新功能

微软发表了一篇播客,宣布在其Microsoft Cloud for Healthcare中推出新的医疗保健数据功能和AI工具,包括通过Azure AI Studio中的新医疗保健AI模型、Microsoft Fabric中的医疗保健数据功能、Copilot Studio中的医疗保健AI agents服务以及AI驱动的护理工作流程解决方案。

来自主题: AI资讯
3467 点击    2024-10-12 10:26
国产模型首开Hugging Face月度下载全球第一,智源BGE累计下载逾亿

国产模型首开Hugging Face月度下载全球第一,智源BGE累计下载逾亿

国产模型首开Hugging Face月度下载全球第一,智源BGE累计下载逾亿

近日,Hugging Face更新了月度榜单,智源研究院的BGE模型登顶榜首,这是中国国产AI模型首次成为Hugging Face月榜冠军。BGE在短短一年时间内,总下载量已超数亿次,是目前下载量最多的国产AI系列模型。

来自主题: AI资讯
4291 点击    2024-10-11 14:38
NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

本文是一篇发表在 NeurIPS 2024 上的论文,单位是香港大学、Sea AI Lab、Contextual AI 和俄亥俄州立大学。论文主要探讨了大型语言模型(LLMs)的词表大小对模型性能的影响。

来自主题: AI技术研报
6242 点击    2024-10-11 13:55
靠广告吸金,出海AI社交独角兽预计年收入达7000万美元

靠广告吸金,出海AI社交独角兽预计年收入达7000万美元

靠广告吸金,出海AI社交独角兽预计年收入达7000万美元

据 Financial Times 消息,MiniMax 向投资者表示它在今年的净收入将达到 7000 万美元。公开信息显示,MiniMax 迄今已经完成了 4 轮融资,投资者包括阿里、腾讯、红杉中国、高瓴创投、IDG 资本等,其估值超过 25 亿美元(约合 177 亿元人民币)。

来自主题: AI资讯
7715 点击    2024-10-11 11:18
速递|前Saleforce CEO创立的AI客服新一轮估值将超过40亿美元

速递|前Saleforce CEO创立的AI客服新一轮估值将超过40亿美元

速递|前Saleforce CEO创立的AI客服新一轮估值将超过40亿美元

据The Information报道,Sierra,一家由前 Salesforce 联合首席执行官布雷特·泰勒共同创办的人工智能初创公司,正在筹集数亿美元的新资金,投资方为成长阶段的投资者 Greenoaks Capital,消息来自两位了解此交易的人士。

来自主题: AI资讯
8435 点击    2024-10-11 10:49
RAG测评关键指标

RAG测评关键指标

RAG测评关键指标

RAG(Retrieval-Augmented Generation)是一种结合信息检索与文本生成的技术,旨在提高大型语言模型(LLM)在回答复杂查询时的表现。它通过检索相关的上下文信息来增强生成答案的质量和准确性。解读RAG测评:关键指标与应用分析

来自主题: AI资讯
3955 点击    2024-10-11 10:06
清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

清华微软最新力作:用物理学革新Transformer注意力,「大海捞针」精度暴涨30%!

随着诺贝尔物理学奖颁给了「机器学习之父」Geoffrey Hinton,另一个借鉴物理学概念的模型架构也横空出世——微软清华团队的最新架构Differential Transformer,从注意力模块入手,实现了Transformer的核心能力提升。

来自主题: AI技术研报
7605 点击    2024-10-10 14:24
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

综合RLHF、DPO、KTO优势,统一对齐框架UNA来了

随着大规模语言模型的快速发展,如 GPT、Claude 等,LLM 通过预训练海量的文本数据展现了惊人的语言生成能力。然而,即便如此,LLM 仍然存在生成不当或偏离预期的结果。这种现象在推理过程中尤为突出,常常导致不准确、不符合语境或不合伦理的回答。为了解决这一问题,学术界和工业界提出了一系列对齐(Alignment)技术,旨在优化模型的输出,使其更加符合人类的价值观和期望。

来自主题: AI技术研报
7757 点击    2024-10-10 12:21