00:00:00想象一下,如果 Claude Code 不仅仅是一个助手,而是一整个团队,20、30 甚至 50 个智能体
00:00:06并行工作,在你关注的同时交付功能。
00:00:09这就是 Gastown。
00:00:11它不是在和 AI 聊天,它是一座工厂。
00:00:14它能分解功能,分配并行任务,自动合并代码,
00:00:20并在 Git 中持久化所有内容,即使崩溃也能持续运行。
00:00:23这可能会让你的产出翻 10 倍,也可能让事情变糟。
00:00:27让我们深入了解一下配置以及它究竟是如何运作的。
00:00:35Gastown 是一个开源编排器,它能将 AI 编程智能体
00:00:39变成类似于开发工作流中的 Kubernetes。
00:00:43首先,Gastown 本身不是 AI 模型,它只是一个编排器。
00:00:48它运行在 Claude Code 等工具之上,将它们转化为协调的多智能体系统。
00:00:53你给它所谓的“市长”(Mayor)设定一个高阶目标,“市长”会将目标
00:00:58拆解为名为“珠子”(Beads)的结构化任务单元。
00:01:02随后,“珠子”会被分组为“车队”(Convoys),接着由名为“艾鼬”(Polecats)的
00:01:07工作智能体并行执行。
00:01:09这非常重要,原因有几点。
00:01:11所有操作都通过 Git 运行。
00:01:13每个智能体都在分支上工作,合并队列,状态被持久化,所以如果程序崩溃,
00:01:20你不需要从头再来。
00:01:21现在对比一下常规的“感性编程”(vibe coding),或者说普通的 AI 编程。
00:01:26那是单次会话、线性执行、上下文偏移、手动编排,简直是一团糟。
00:01:32Gastown 基本上是认知的水平扩展,这意义重大。
00:01:37但真正的问题是,它真的有效吗?
00:01:40如果你喜欢这类内容,请务必订阅。
00:01:42我们经常会发布新视频。
00:01:44现在让我们开始,启动它并做一些测试。
00:01:47好了,我这里运行着一个简单的待办事项应用。
00:01:49我在 GitHub 上找了一个非常简单的 Go 语言版本。
00:01:53我选择 Go 是因为 Gastown 主要也是用 Go 编写的,但实际上
00:01:58你选择什么项目都没区别,它都会照常执行。
00:02:02这个待办事项应用目前没有身份验证功能,只是一个基础的增删改查(CRUD)应用。
00:02:06如果你曾经给现有应用添加过身份验证,你就知道那种
00:02:11担心搞坏代码的痛苦。
00:02:12这从来不是“添加登录”那么简单,它涉及数据库更改、路由、中间件、表单、测试、Docker 等一切。
00:02:18当你构建这些应用时,各个部分都是环环相扣的。
00:02:22我们要测试的挑战是:Gastown 能否在不需要我微观管理的情况下完成这些?
00:02:26老实说,这里的环境配置挺麻烦的。
00:02:30我需要通过 brew 安装很多大型软件包,整理各种依赖,
00:02:35甚至安装好后,为了让它跑起来也花了不少时间进行故障排查。
00:02:39但一旦同步好所有内容,它的运行效果确实非常出色。
00:02:43现在它运行起来了,我接入“市长”并给它一个提示词。
00:02:46我会说:添加 JWT 验证,使用基础的 SQLite,创建登录和注册
00:02:52接口,保护路由,添加 HTML 表单,编写测试,并添加 Dockerfile。
00:02:58就这样。
00:02:59但这可是很多工作,对吧?
00:03:00这么多事情同时进行。
00:03:01不需要分步骤引导,让我们看看实际会发生什么。
00:03:05“市长”现在开始自动分解这些功能。
00:03:10数据库结构、中间件、验证接口、前端表单、测试,这些都变成了独立的“珠子”,
00:03:18记住,一个“珠子”就像是一个工人。
00:03:21看,现在所有的“艾鼬”都开始集体出动了。
00:03:25一个智能体创建 SQLite 结构,一个编写 JWT 中间件,一个构建
00:03:31登录和注册路由,另一个更新 UI 表单,还有一个编写集成
00:03:37测试和 Docker 配置文件,所有这一切都在同步进行。
00:03:40这就是巨大的反差。
00:03:42如果你单独使用 Claude Code,你需要按顺序来。
00:03:47你要提示、等待、修复、再提示、不断解释上下文,对吧?
00:03:52这通常就是编程智能体的工作方式。
00:03:55但在这里,Git 分支隔离了工作,合并被排队处理,状态被实时追踪。
00:04:00所以不再是由你大脑记住整个计划,而是由系统代劳。
00:04:05哪怕中途崩溃了也没关系。
00:04:09你可以稍后自动从持久化的状态中恢复。
00:04:13现在是见证奇迹的时刻。
00:04:14我把它 fork 到了一个仓库里,现在我想在我的 GitHub 上
00:04:19查看它所做的所有更改和添加的内容。
00:04:22我们可以看到旧代码,而除此之外的其他部分都被编辑过。
00:04:25注册、登录、令牌发放、受保护路由正常工作、测试通过,所有这些内容。
00:04:32这些都是通过 Gastown 添加进来的。
00:04:35整个功能在短短几分钟内就被分解并实现了。
00:04:39这就是重点。
00:04:40区别不仅在于速度,更在于“认知卸载”。
00:04:44我们不再需要管理 AI 的每一个微小步骤,但这并不意味着它
00:04:49百分之百会成功。
00:04:50因为运行它可能又是另一回事。
00:04:52现在让我快速运行一下。
00:04:53让我们看看结果如何,以及我们现在面对的是什么。
00:04:56总的来说,这就是它的样子。
00:04:58还不错,一个非常基础的应用。
00:05:00你可以看到我可以在这里登录,创建一个账号。
00:05:03待办事项列表功能依然正常,它没有改动这部分。
00:05:06它添加了路由、Docker 文件,以及所有关于 JWT 验证的额外内容。
00:05:11所以这次表现真的很棒。
00:05:12我很想看看它在更大规模应用上的表现,但这次尝试确实
00:05:16消耗了我大量的 token。
00:05:18说到这里,我们来聊聊权衡利弊。
00:05:21也就是优缺点,对吧?
00:05:23首先是优点:可扩展性。
00:05:25这真的很酷。
00:05:27你可以同时拥有 20 到 30 个智能体在工作。
00:05:30这意味着在开发大型功能时会有海量的产出,而以前这类工作
00:05:35常会让一个人陷入任务堆和复杂的依赖关系中。
00:05:37第二点,另一个很酷的功能是 Git 持久化。
00:05:40不再有那种脆弱的 AI 会话,一旦崩溃所有内容都会消失,
00:05:45然后我们不得不重新开始。
00:05:47这些都是非常、非常棒的功能。
00:05:48但现在来说说缺点,因为这才是让大家感到意外的地方。
00:05:50我也对其中一些点感到惊讶,但它们确实合乎逻辑。
00:05:54“审查疲劳”:是的,系统产出了海量内容,但你也得
00:06:00审查海量内容。
00:06:01它的生产力可能极高,但也可能让你心力交瘁。
00:06:04然后是成本问题。
00:06:06高频使用会导致费用飞涨。
00:06:07我们不只是运行一个智能体。
00:06:09我们是在并行运行所有这些智能体。
00:06:11这笔账你可以自己算一下。
00:06:13智能体之间仍可能产生冲突。
00:06:14它们可能会过度设计。
00:06:15由于你给了它们完全的控制权,它们完全有可能搞砸你的仓库。
00:06:19这并不是即插即用的,由此引出了一个真实的问题。
00:06:23你真的想在工作流中使用这种工具吗?
00:06:27还是说它有点过头了?
00:06:29当然,你也可以选择其他供应商,比如 Claude 或 OpenAI,选择权在你。
00:06:34虽然这还是个早期工具,但它指向了一个更宏大的愿景,
00:06:38因为趋势很明显:这不再仅仅是“AI 辅助你编程”。
00:06:43这是“AI 通过多智能体并行运行来改变工作流”。
00:06:47所以 Gastown 代表了从 AI 助手到多个智能体协同工作的转变。
00:06:54这改变了我们的杠杆效率,因为现在你可以同时
00:07:00编排后端、前端、测试、文档和基础设施。
00:07:03这可能会让你效率倍增,或者重新定义开发的含义。
00:07:09问题不在于多智能体系统是否会到来。
00:07:12它们已经来了,对吧?
00:07:13这就是一个例子。
00:07:14现在的问题变成了:你是现在就开始尝试,还是以后再说?
00:07:19因为谁知道呢?
00:07:20它们正在普及。
00:07:21订阅以获取更多正在重塑开发工作流的工具和技巧。
00:07:25我们下期视频再见。