GitHub 宣布推出 Agentic Workflows(代理式工作流) 的技术预览版。这一功能允许 AI 代理在 GitHub Actions 中自动运行。该概念最早于去年在旧金山举行的 GitHub Universe 大会上发布。
这种工作流由 GitHub 的 GitHub Next 团队与 Microsoft 研究院共同开发,具备沙箱执行机制,并引入了名为 Secure Output(安全输出) 的功能,旨在防止代理工作流被滥用。
这一新服务属于 “持续 AI(Continuous AI)” 概念的一部分,该理念同样在 Universe 大会上提出。GitHub 首席研究员 Eddie Aftandilian 在会上表示:“我们提出‘持续 AI’这一术语,用来描述一种新的工程范式——它可以被视为持续集成(CI)的代理化演进形态。”
在实现方式上,Agentic Workflow 使用 Markdown 文件进行定义,并通过 GitHub CLI(命令行工具) 编译为 GitHub Actions YAML。工作流由特定事件触发,开发者可以选择一个或多个事件,例如:
- 新建 Issue
- Issue 评论
- Pull Request 及其评论
- 新建讨论
AI 代理的具体行为由 提示词(Prompt)指令 决定,例如:
- 分析 Issue
- 自动添加标签
- 审查 Pull Request
- 输出结构化报告
可使用的代理模型包括 GitHub Copilot、Claude Code** 以及 OpenAI Codex。
GitHub 团队表示,Agentic Workflows 的典型应用场景包括:
- Issue 分类与分诊
- 自动更新文档
- 识别代码改进机会
- 监控测试覆盖率并补充测试
- 调查持续集成(CI)失败原因
- 定期生成仓库健康报告
GitHub 认为,这类代理式工作流使得全新的仓库自动化与软件工程场景成为可能,许多自动化任务在没有 AI 的情况下难以实现。
需要强调的是,Agentic Workflows 并非用于替代传统的 CI/CD(持续集成与持续交付)流程,而是与其并行使用。官方 FAQ 指出:
CI/CD 流程必须具有确定性(deterministic),而 Agentic Workflows 并不具备这一特性。
因此,Agentic Workflows 更适合用于需要 AI 灵活性的任务,而不是那些需要严格可复现性的核心构建和发布流程。
不过,让 AI 代理访问代码仓库也带来了明显的安全风险,尤其是在公共仓库中,恶意提示可能被隐藏在新的 Issue、Pull Request 或评论中。
为应对这一问题,GitHub 引入了多层防护机制(guardrails)。官方表示,与直接在 GitHub Actions 中运行 AI 代理 CLI 相比,这种方式更加安全,因为后者往往会赋予代理过多权限。
Agentic Workflows 的安全架构包含多个层级:
- 工作流在隔离容器(isolated container)中运行
- AI 代理对仓库仅拥有只读权限
- 通过防火墙限制外部网络访问,并可限定可访问的目标地址
- 在传递给代理之前,对用户内容进行清洗与过滤
- Safe Outputs 子系统:涉及写入内容的任务将在独立且受权限控制的作业中执行
在成本方面,与许多 AI 工作负载类似,其费用结构并不完全透明。FAQ 中表示:
“成本取决于工作流的复杂度。”
日志中会包含使用指标,而审计命令则可以显示详细的 token 使用量及对应成本。
尽管具备多项安全机制,官方文档仍提醒该产品仍处于早期开发阶段,未来可能发生较大变化。即便在严格监控下,系统仍有可能出现问题。因此官方建议:
“请谨慎使用,并自行承担风险。”
尽管如此,安全性显然是 GitHub 在这一新功能中的核心重点,而且在产品介绍中占据了异常重要的位置。
Aftandilian 在 Universe 大会上表示:
“AI 代理只能执行我们允许它做的事情,而不会做其他任何事情。”
这一表态虽然大胆,但也令人期待。








苏公网安备32021302001419号