AI资讯新闻榜单内容搜索-AI代码

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AI代码
66%的程序员被AI坑惨!改bug比自己写还花时间

66%的程序员被AI坑惨!改bug比自己写还花时间

66%的程序员被AI坑惨!改bug比自己写还花时间

Stack Overflow的2025年度开发者调查报告,揭开了AI狂欢背后的冷峻现实:84%的开发者已将其纳入工作流,但对AI的好感度却罕见暴跌!更扎心的是,66%的人被「似是而非」的AI代码折磨,调试耗时甚至超过手写。

来自主题: AI资讯
6927 点击    2025-12-31 09:18
北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。

来自主题: AI技术研报
6675 点击    2025-12-25 09:46
“Cursor的bug太多了,他们直接买下一家代码评审公司来修!”

“Cursor的bug太多了,他们直接买下一家代码评审公司来修!”

“Cursor的bug太多了,他们直接买下一家代码评审公司来修!”

12 月 19 日,Cursor 宣布将收购代码评审初创公司 Graphite。Graphite 聚焦于代码完成之后的流程,帮助团队评审变更、判断代码是否已具备上线条件。Graphite 联合创始人 Tomas Reimers 与 Cursor CEO Michael Truell 的共识是:“AI 的引入意味着会有更多代码被写出来,也就必然意味着,需要被评审的代码只会更多。”

来自主题: AI资讯
8808 点击    2025-12-23 15:27
DeepMind发布代码修复AI智能体CodeMender,实现「被动响应」与「主动防御」一体化

DeepMind发布代码修复AI智能体CodeMender,实现「被动响应」与「主动防御」一体化

DeepMind发布代码修复AI智能体CodeMender,实现「被动响应」与「主动防御」一体化

近日,DeepMind 最新推出了一种全新的用于代码安全的 AI Agent—CodeMender,它使用 Gemini Deep Think 自动修补关键软件漏洞。它会检查补丁是否正确、是否能够修复根本原因,并且不会引起其他任何破坏。这确保只有高质量的解决方案才会被发送给人工审核。

来自主题: AI资讯
8833 点击    2025-10-07 22:13
马斯克亲口证实xAI代码库被盗!涉案前员工被起诉,已跳槽OpenAI

马斯克亲口证实xAI代码库被盗!涉案前员工被起诉,已跳槽OpenAI

马斯克亲口证实xAI代码库被盗!涉案前员工被起诉,已跳槽OpenAI

刚刚,马斯克自曝,xAI的整个代码库都被偷走了。 就在今天,xAI起诉了一名离职员工,指控他窃取商业机密。 而且按xAI的说法,这名员工已经跳槽到了OpenAI。

来自主题: AI资讯
7717 点击    2025-09-01 12:03
硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库

硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库

硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库

硅谷炸锅了!xAI创始工程师卖掉700万美元股票后,涉嫌窃取Grok核心代码库「叛逃」OpenAI,马斯克怒发推文「他下载了整个xAI代码库」。这场价值数十亿美元的叛逃案,已在加州法院开打。恩怨升级,马斯克 vs OpenAI,谁将笑到最后?

来自主题: AI资讯
7497 点击    2025-09-01 09:48
阿里全新AI IDE现在免费用:超强上下文理解,覆盖整个代码库

阿里全新AI IDE现在免费用:超强上下文理解,覆盖整个代码库

阿里全新AI IDE现在免费用:超强上下文理解,覆盖整个代码库

集成全球顶尖的编程模型、最强的上下文工程能力,可一次检索10万个代码文件。阿里全新AI代码编辑器Qoder表示——它可以理解整个代码库,并交付真正适合的代码。

来自主题: AI资讯
8231 点击    2025-08-22 18:33
AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

AI代码生成,上下文示例怎样写最有效?港科大最新

长久以来我们都知道在Prompt里塞几个好例子能让LLM表现得更好,这就像教小孩学东西前先给他做个示范。在Vibe coding爆火后,和各种代码生成模型打交道的人变得更多了,大家也一定用过上下文学习(In-Context Learning, ICL)或者检索增强生成(RAG)这类技术来提升它的表现。

来自主题: AI技术研报
8916 点击    2025-08-13 10:45