AI资讯新闻榜单内容搜索-MIT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MIT
微软 GitHub Copilot Chat 扩展正式开源

微软 GitHub Copilot Chat 扩展正式开源

微软 GitHub Copilot Chat 扩展正式开源

上个月,微软分享了将 VS Code 打造成开源 AI 编辑器的计划。今天,微软在 VS Code 官网表示已经达成了第一个里程碑:GitHub Copilot Chat 扩展程序现已在 GitHub 上根据 MIT 许可证 开源。

来自主题: AI资讯
5363 点击    2025-07-03 13:26
ChatGPT惨败Llama!MIT官宣AI开飞船0%失败率,马斯克火星殖民不再是梦

ChatGPT惨败Llama!MIT官宣AI开飞船0%失败率,马斯克火星殖民不再是梦

ChatGPT惨败Llama!MIT官宣AI开飞船0%失败率,马斯克火星殖民不再是梦

MIT最新研究让LLM直接操控宇宙飞船进行太空追逐挑战赛:ChatGPT少量微调即获第二,开源Llama更胜一筹,凭提示词精准追踪卫星、节省燃料,更是0%失败率,验证AI小数据高效与自主航天可行,为未来的太空漫游铺路。

来自主题: AI技术研报
6353 点击    2025-07-03 11:48
UofT、UBC、MIT和复旦等联合发布:扩散模型驱动的异常检测与生成全面综述

UofT、UBC、MIT和复旦等联合发布:扩散模型驱动的异常检测与生成全面综述

UofT、UBC、MIT和复旦等联合发布:扩散模型驱动的异常检测与生成全面综述

扩散模型(Diffusion Models, DMs)近年来展现出巨大的潜力,在计算机视觉和自然语言处理等诸多任务中取得了显著进展,而异常检测(Anomaly Detection, AD)作为人工智能领域的关键研究任务,在工业制造、金融风控、医疗诊断等众多实际场景中发挥着重要作用。

来自主题: AI资讯
5394 点击    2025-07-01 10:55
Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

Gary Marcus惊世之言:纯LLM上构建AGI彻底没了希望!MIT、芝大、哈佛论文火了

今天,著名的人工智能学者和认知科学家 Gary Marcus 转推了 MIT、芝加哥大学、哈佛大学合著的一篇爆炸性论文,称「对于 LLM 及其所谓能理解和推理的神话来说,情况变得更糟了 —— 而且是糟糕得多。」

来自主题: AI技术研报
5387 点击    2025-06-29 16:11
MIT终身教授何恺明,入职谷歌了

MIT终身教授何恺明,入职谷歌了

MIT终身教授何恺明,入职谷歌了

AI大牛何恺明最新动向来了!

来自主题: AI资讯
7809 点击    2025-06-26 16:30
刚刚,何恺明官宣入职谷歌DeepMind!

刚刚,何恺明官宣入职谷歌DeepMind!

刚刚,何恺明官宣入职谷歌DeepMind!

AI大神何恺明正式入职谷歌DeepMind,担任杰出科学家,同时保留MIT终身副教授身份。从Meta到MIT,再到如今的谷歌,这位「学界+业界」双修的大牛,将为DeepMind的AGI注入一针强心剂。

来自主题: AI资讯
7128 点击    2025-06-26 10:34
信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始

人类从农耕时代到工业时代花了数千年,从工业时代到信息时代又花了两百多年,而 LLM 仅出现不到十年,就已将曾经遥不可及的人工智能能力普及给大众,让全球数亿人能够通过自然语言进行创作、编程和推理。

来自主题: AI技术研报
8096 点击    2025-06-25 10:37
合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

合成数据>人工数据,绝对性能暴涨超10个点!仅需任务定义,高效微调大模型

基础模型严重依赖大规模、高质量人工标注数据来学习适应新任务、领域。为解决这一难题,来自北京大学、MIT等机构的研究者们提出了一种名为「合成数据强化学习」(Synthetic Data RL)的通用框架。该框架仅需用户提供一个简单的任务定义,即可全自动地生成高质量合成数据。

来自主题: AI技术研报
8021 点击    2025-06-24 16:13
推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

推理正确率下降65.5%!斯坦福、MIT等用「不等式」拷问AI逻辑极限

大语言模型在数学证明中常出现推理漏洞,如跳步或依赖特殊值。斯坦福等高校团队提出IneqMath基准,将不等式证明拆解为可验证的子任务。结果显示,模型的推理正确率远低于答案正确率,暴露出其在数学推理上的缺陷。

来自主题: AI技术研报
8040 点击    2025-06-23 14:41