在QCon London大会上,来自Thoughtworks的AI负责人Birgitta Böckeler提出了一个值得警惕的观点:AI对开发者来说正处于一种“危险状态”——好用到无法不用,但用了却在削弱人的能力。

过去一年,AI编程从“辅助工具”迅速进化为“代理系统”。像Claude Code这样的工具已经不仅仅是补全代码,而是能自主完成任务:分析项目、制定计划、写代码、测试甚至迭代优化。这种能力的跃迁,让开发效率显著提升,但也带来了新的问题——开发者逐渐被“挤出回路”。

当前一个重要趋势是“上下文工程(context engineering)”。简单来说,就是人为设计规则、指令和工具,让AI获取更精准的信息,从而提高输出质量。但即使上下文窗口越来越大,一旦信息过多,AI的效果反而下降,成本也随之上升。这意味着:AI并不是越“多想”越好,而是越“精控”越有效。

AI编程
AI编程

另一个趋势是“子代理”和“代理群”。主AI可以拆分任务给多个子AI,各自处理不同工作,再汇总结果。这类似一个自动化团队。业内人士如Steve Yegge甚至设想未来开发者会构建“AI工厂”。然而,这种自动化程度越高,人类参与越少,问题也越隐蔽。

真正的风险在于:AI并不可靠。它可能生成错误代码、引入安全漏洞,甚至泄露敏感数据。研究者Simon Willison提出“致命三要素”:当AI同时接触不可信内容、私密数据,并具备对外通信能力时,就极易出问题。比如,仅仅赋予AI读取和发送邮件的权限,就可能带来安全风险。

因此,开发者的角色正在发生变化——从写代码的人,变成评估风险的人。需要权衡三点:概率、影响和可检测性。但现实是,AI运行时间越长,后期人工审查成本就越高,效率与安全形成直接冲突。

与此同时,另一个隐忧正在浮现:成本。过去AI只是简单补全,现在却要完成整套开发流程,算力消耗大幅增加。不少开发者发现所谓“固定套餐”其实并不固定,一旦用量超限,工作都会受影响。当开发开始依赖AI,失去它反而无法工作。

那么,编程技能会不会被淘汰?Böckeler的回答是否定的,但带有警告意味:你永远不可能完全把一切交给AI,你必须理解它在做什么。问题是,当人越来越少亲自编写代码,这种理解能力也在下降。