OpenClaw 作者 Peter Steinberger 如何看 AI 软件开发?从 OpenClaw 到闭环编程

整理 Peter Steinberger 从 PSPDFKit 到 OpenClaw 的经历,以及他对 AI 软件开发、vibe coding、闭环验证和个人 agent 的看法。

Peter Steinberger 的经历很适合用来观察 AI 软件开发正在发生什么变化。

他不是“突然被 AI 带火的新人”。在 OpenClaw 之前,他已经是 PSPDFKit 的创始人,长期做 PDF 渲染、文档处理和开发者工具。这类产品很难靠概念包装取胜,必须面对性能、兼容性、API 设计、企业客户和长期维护。

所以,当 Steinberger 后来用 AI 工具做出 OpenClaw,并围绕 AI Agent、个人自动化和 AI 编程发表观点时,重点不只是“一个人写了很多代码”。更值得看的,是他把多年软件工程经验和新一代 AI coding agent 结合后,对开发流程的重新理解。

AI 编程不是魔法按钮

很多人讨论 AI 编程时,会把它简化成两个极端。

一种说法是:AI 已经能写代码,程序员快没用了。

另一种说法是:AI 写的代码不可靠,真正工程还是得靠人手写。

Steinberger 的经验更接近第三种:AI 让软件开发的操作单位变了,但没有取消工程判断。

过去,开发者主要以“编辑代码”为中心工作。需求拆解、架构判断、写实现、跑测试、修 bug,都围绕人工修改代码展开。

AI coding agent 介入后,开发者越来越像在管理一个执行系统:

  • 说明目标。
  • 提供上下文。
  • 约束边界。
  • 让 agent 修改代码。
  • 运行测试和检查。
  • 根据结果继续迭代。

这不是简单把键盘交给模型,而是把人从“每一行都亲手敲”转到“定义方向、设计反馈、判断结果”。

为什么他不喜欢把这叫 vibe coding

围绕 Steinberger 的讨论里,一个高频词是 vibe coding

这个词原本用来形容一种新开发方式:开发者用自然语言描述想法,让 AI 生成大量代码,再通过运行结果和反馈不断调整。

但 Steinberger 对这个词并不完全买账。公开报道中提到,他认为 vibe coding 容易变成一种贬义表达,暗示 AI 辅助开发只是“凭感觉乱生成”,忽视了背后的技能、判断和经验。

这个批评有道理。

真正有效的 AI 编程并不是随便输入一句话,然后相信模型输出。它需要:

  • 能把模糊需求拆成可执行任务。
  • 能识别模型是否误解了目标。
  • 能设计测试和验收标准。
  • 能判断代码结构是否会影响长期维护。
  • 能知道什么时候应该停止生成、转向人工审查。

换句话说,AI 降低了写代码的摩擦,但没有降低理解系统的责任。

闭环才是关键

Steinberger 相关访谈和文章里,经常被总结出的一个核心思路是“闭环”。

只让 AI 生成代码,是开环。

让 AI 生成代码、运行代码、读取错误、修复问题、再运行测试,才更接近闭环。

这个差别非常重要。

开环生成很容易制造表面可用的软件。页面能打开,功能看起来有,代码也不少,但一旦进入真实场景,就会暴露状态管理、权限、异常处理、边界条件和部署问题。

闭环开发要求输出必须被反馈约束。最简单的闭环是:

  1. 写清楚目标。
  2. 让 AI 修改代码。
  3. 自动运行测试、类型检查、lint 或构建。
  4. 把错误反馈给 AI。
  5. 重复直到通过。
  6. 最后由人审查关键路径。

这也是 AI 软件开发真正能提高效率的地方。不是因为模型一次就写对,而是因为它可以快速参与“生成、验证、修复”的循环。

经验越多,越能用好 AI

AI 编程最容易产生的误解之一,是“经验不重要了”。

Steinberger 的案例反而说明,经验会变得更重要,只是作用方式变了。

一个有经验的工程师更容易判断:

  • 哪些任务适合交给 agent。
  • 哪些模块需要先写测试。
  • 哪些改动风险太高,不该让 AI 大范围重构。
  • 哪些生成代码只是看起来合理。
  • 哪些问题应该通过架构调整解决,而不是继续补丁式修复。

AI 可以生成大量候选方案,但候选方案越多,越需要判断力。没有经验的人可能会被“能跑起来”迷惑,有经验的人更会追问:能不能维护?能不能扩展?会不会破坏安全边界?出了问题能不能定位?

这也是为什么 AI coding agent 并没有让软件工程变成纯聊天。它更像把一部分执行劳动外包出去,同时放大了规划、审查、验证和取舍的重要性。

OpenClaw 的意义不只是项目本身

OpenClaw 被关注,不只是因为它是一个开源 AI agent,也不只是因为它的增长速度快。

它更像一个信号:开发者开始希望 AI 不只回答问题,而是能接入真实工具,完成真实动作。

传统聊天机器人停留在对话框里。它可以解释代码、写草稿、给建议,但很多时候还需要人复制、粘贴、打开软件、执行命令。

Agent 的方向是把模型接到工具上:

  • 文件系统。
  • 浏览器。
  • 终端。
  • 邮件。
  • 日历。
  • 第三方服务。
  • 项目仓库。

一旦模型能使用这些工具,软件开发的边界就会变化。AI 不再只是“代码补全”,而会参与项目阅读、任务拆解、文件修改、测试执行、PR 整理和工作流自动化。

这也是 Steinberger 加入 OpenAI 后被关注的原因。他代表的不是单个开发者故事,而是一种产品方向:个人 agent 会从演示玩具走向日常工作层。

这对普通开发者意味着什么

对普通开发者来说,Steinberger 的经验不一定能直接复制。

不是每个人都能同时管理多个 agent,不是每个项目都适合高强度 AI 生成,也不是每个团队都能接受“先生成再快速迭代”的节奏。

但有几件事值得学。

第一,先把任务写清楚。

AI 对含糊目标很敏感。你说“优化一下”,它可能改风格、改结构、加功能、删逻辑。你说“把登录失败时的错误提示从英文改成中文,不改变认证流程”,结果通常更可控。

第二,把验证命令固定下来。

如果一个项目没有测试、没有构建命令、没有 lint,AI 就很难形成闭环。哪怕只是最基础的 npm testgo test ./...pytesthugo,也比完全靠肉眼检查强。

第三,控制改动范围。

一次只让 AI 处理一个模块、一个 bug、一个页面,通常比让它“重构整个项目”更可靠。

第四,保留人工审查。

尤其是认证、支付、权限、数据删除、部署脚本、数据库迁移、安全配置这些地方,不要因为代码是 AI 生成的就降低审查标准。

第五,复盘 prompt 和失败模式。

如果 AI 经常误解某类任务,就把约束写进项目规则、agent instructions 或技能文件。AI 编程能力不是只来自模型,也来自你给它搭建的工作环境。

AI 软件开发会走向哪里

Steinberger 的故事说明,AI 软件开发正在从“辅助写代码”走向“组织软件生产流程”。

早期 AI 编程工具的价值主要是补全函数、解释报错、生成模板。现在的变化是,agent 可以跨文件工作,可以调用工具,可以运行检查,可以根据反馈继续修复。

这会带来几个趋势:

第一,个人开发者的产能上限会提高。

一个人可以同时推进更多原型、脚本、内部工具和小型产品。但产能提高不等于质量自动提高。越快生成,越需要验证。

第二,项目结构会更重要。

代码越清晰,测试越明确,文档越完整,AI 越容易正确修改。混乱项目对人难,对 AI 也难。

第三,软件工程师会更像工作流设计者。

未来重要的不只是会不会写某门语言,而是能否把需求、上下文、工具、测试、部署和权限组织成一个可控循环。

第四,安全边界会更敏感。

Agent 能做事,就可能做错事。它能读文件、执行命令、访问服务,也意味着权限、审计和回滚会成为 AI 开发环境的基础设施。

小结

Peter Steinberger 的 AI 软件开发观,最有价值的地方不是“AI 生成了多少代码”,而是他展示了一种新的开发姿势。

人不再只是在编辑器里逐行输入,而是在设计目标、管理 agent、构造反馈回路、审查结果和调整系统。代码仍然重要,但代码不再是唯一的劳动中心。

如果说传统软件开发强调“把代码写对”,AI 软件开发会更强调“让系统持续产出可验证的正确结果”。

这不是降低工程门槛那么简单。它是在改变工程能力的形态:从手工实现,转向任务分解、上下文管理、工具编排、自动验证和最终判断。

参考资料

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计