Linux内核团队发布AI编程新规:答应使用但开辟者需担责并表明来历
2026-04-13 16:05:53
Linux内核维护团队近日发布新规,明确允许开发者在编程过程中使用GitHub Copilot等人工智能辅助工具。不过,新规同时强调,因代码缺陷引发的任何漏洞或安全风险,最终责任将由代码提交者自行承担。这一决策标志着开源社区对AI工具的态度正从争议走向规范化管理。
围绕AI生成代码的争议在开源领域已持续数月。今年初,英特尔工程师Dave Hansen与甲骨文员工Lorenzo Stoakes曾就限制AI工具使用展开激烈辩论。Linux创始人Linus Torvalds最终表态称,全面禁止AI工具缺乏实际意义,强调其本质仍是辅助开发的工具。他指出,真正需要关注的是代码质量本身,而非开发者使用的工具类型。
此前,不同开源项目对AI生成代码的态度存在显著分歧。NetBSD和Gentoo等项目明确禁止此类代码,认为大模型训练数据的版权归属不明确,可能构成法律层面的"代码污染"。开发者签署原创声明(DCO)时需确保代码所有权,但AI训练过程中涉及的GPL等开源协议代码,使得合法性难以完全保障。这种矛盾导致多个项目陷入两难境地。
实际开发中,AI生成代码的质量问题已给维护者带来沉重负担。cURL项目因收到大量低质量AI代码,不得不暂停漏洞奖励计划;Node.js和OCaml等项目则面临数万行AI生成补丁的内部审查争议。这些案例暴露出,缺乏规范的AI工具使用正对开源生态造成实质性冲击。
新规要求开发者在使用AI工具时必须明确标注代码生成方式,将质量责任落实到具体个人。这种设计既保留了AI工具的生产力价值,又通过责任追溯机制维护了代码安全标准。维护团队表示,此举旨在建立"工具使用自由"与"质量管控"之间的平衡,避免技术进步与安全保障产生冲突。
核心要点: - 工具使用权限:Linux内核项目正式开放GitHub Copilot等AI编程工具 - 责任界定原则:代码缺陷引发的所有问题由提交者承担最终责任 - 透明度要求:开发者需明确披露代码是否由AI生成 - 管理目标:在利用技术红利的同时确保开源代码质量标准
相关阅读
-
花7000元买“一次性”冰箱:被网红家电收割的年青人资讯百科 2026-04-13 16:03:12
-
华为AI眼镜官宣4月20日发布:支撑摄影 同声传译科技前沿 2026-04-13 16:01:00
-
河南启航“AI+OPC”重生态:一人公司突起,数字时期创业新图景深度解读 2026-04-13 15:59:25
-
马斯克“全能应用”新举措:XChat 4月17日上线,AI赋能社交新体验资讯百科 2026-04-13 15:56:46
-
心脏用药搜刮量暴涨,大夫造谣速效救心丸是全能减缓药:应遵医嘱科技前沿 2026-04-13 15:55:01
-
OpenAI告急应对Axios保险危机:更新证书发布新版本守护用户数据深度解读 2026-04-13 15:54:09
-
阿尔忒弥斯2号镜头下:地球西沉月球边沿,开启深空索求新序章资讯百科 2026-04-13 15:50:11
-
高管亲身放风 何刚表示华为 WATCH FIT 5 Pro行将发布科技前沿 2026-04-13 15:48:30
-
马斯克为何抉择英特尔协作Terafab:一篇论文能够给出谜底科技前沿 2026-04-13 15:42:11
-
续航10小时 支撑空中信步,智元新一代人形机械人远征A3正式发布科技前沿 2026-04-13 15:36:28