Linux 内核社区最新合并的 coding-assistants.rst 首次正式规范了 AI 参与代码贡献,要求提交信息必须标注所用的模型与分析工具。该指南的核心原则是“人类必须负全责”,明确 AI 不得代替人类签署开发者来源证书,提交者需亲自审查代码并确认符合 GPL-2.0 协议。这种“不禁止、不鼓励、只追责”的做法在 Hacker News 上被评价为“正常得让人意外”,但也引发了关于 AI 生成代码若不受版权保护可能导致 GPL 无法执行的法律担忧。该规范暂未触及这一版权盲区,而是将风险直接留给提交者,标志着在 AI 能力向开发者日常工具链“外化”的趋势下,顶级开源项目的维护者而非 AI 公司,已经开始亲自下场制定游戏规则。
"实质性提升"。AI 能 7×24 扫描漏洞,速度和覆盖面远超人工。关键是他们没把这当噱头,而是直接嵌进了开发流程里——agentic red teaming,代码写完就扫,扫完就修。有个细节:这次模型是通过 Microsoft Foundry 上的 gated research preview 提供的,不是随便能用。你觉得 AI 做安全审计,离真正替代人工还有多远?
OpenAI 这次把企业 AI 的方向说得很直白,不再只是给每个岗位塞一个 copilot,而是想把模型变成统一智能层,让 agent 跨系统、跨数据、跨工具协同,再叠一层 AI superapp。真正值得关注的不是功能多了多少,而是企业软件的组织方式可能要改了。以后比的也许不是谁先接入模型,而是谁先把权限、上下文和多 Agent 流程跑顺。大家觉得,企业 AI 下一步会先卡在技术,还是卡在组织改造?