00:00:00OpenClaw 现已加入 OpenAI,其创始人 Peter Steinberger
00:00:05也随之加入。我认为从开发者的角度来看,这件事非常有趣,
00:00:12原因有几点。它向我们展示了 OpenAI 未来的发展方向,
00:00:17而且我认为这会带来一些有趣的连锁反应。Peter 在他网站的博客中提到,
00:00:25他的下一个使命是打造一个连他妈妈都能轻松使用的智能体。
00:00:32因为目前的 OpenClaw 依然需要一定的技术背景或专业知识
00:00:38才能完成设置和使用。但我认为这反而是件好事,
00:00:45正如我在前几周的视频中提到的,OpenClaw 可能存在危险或严重的安全性问题,
00:00:53很多即使有技术背景的人,要么没意识到,要么干脆忽视了这些问题。
00:01:00又或者,他们并没有像在社交媒体上分享的那样,用 OpenClaw 做了很多真正有用的事。
00:01:06毕竟现在是 2026 年,网络上什么都可能发生。总之,我在那段视频里分享了看法,
00:01:12但在这里我还会不时提到它。让 AI 智能体变得人人可用,
00:01:19——假设他母亲不是那种顶尖开发者——这显然是所有 AI 公司,
00:01:27无论是 OpenAI 还是 Thoughtbreak,都在追求的目标。虽然让我们这些开发者
00:01:34成为 Cloud Code、Codex 等优秀工具的用户已经很不错了,
00:01:41但大众市场的规模要大得多。这些公司的终极目标自然是
00:01:47让 AI 智能体包揽一切,本质上就是取代人类。首先是数字领域,
00:01:56接着是通过机器人技术扩展到现实。关于这是否会很快实现,我今天不想细说,
00:02:04我在很多视频里都表达过观点。我不认为开发者会在短期内被取代,
00:02:11更不用说全人类了。我也并不认为这是一个好目标。但这
00:02:18又是另一个话题了。有趣的是,Sam Altman 分享说,
00:02:27随着 Peter Steinberger 的加入,他们最终期望 OpenClaw 能迅速成为
00:02:35其核心产品线的一部分,也就是像 OpenClaw 这样的 AI 智能体。他还提到,
00:02:42OpenClaw 将作为一个开源项目保留在基金会中,由 OpenAI 继续提供支持。
00:02:48未来的趋势将是极其多智能体化的,所以支持开源对他们来说很重要。
00:02:54从这段话中,我能非常清晰地读出,OpenAI 将在 OpenClaw 的基础上,
00:03:01利用其经验教训甚至是部分代码库,构建自己的智能体产品。
00:03:09所以,OpenClaw 确实会保持开源,他们也会继续提供支持,
00:03:16可能就像他们说会“保持开放”一样,谁知道呢。但他们肯定会
00:03:22基于 OpenClaw 的经验构建一个新的智能体。就我理解,它很可能不会开源,
00:03:29而是一个付费产品。从商业角度来看,这完全合情合理。
00:03:34现在,回到我在视频中提到的关于 OpenClaw 安全性的担忧。
00:03:44我最大的担忧并不是代码库中的漏洞,因为漏洞可以随着时间推移被修复,
00:03:50而且有 OpenAI 这样的大公司背书,这对修复漏洞大有裨益。这并非我最担心的。
00:03:58我一直以来对 OpenClaw 最大的担忧是“提示词注入”。
00:04:08这是我对所有这类智能体的头号担忧。它是大语言模型的一个根本性缺陷。
00:04:16编程智能体是极佳的助手,但它们会犯很多错,需要人类引导。
00:04:25每当我听人说 AI 已经可以独立完成端到端软件开发时,我都迫不及待地想
00:04:31见识一下这些软件,因为我的实际经验并非如此。但是,
00:04:37在能力出众的开发者手中,这些编程智能体确实能带来显著的生产力提升。
00:04:44这是我的亲身体验,也是我对编程智能体的看法。但重点是,它们离取代开发者还差得远。
00:04:50当然,从某种程度上说,编程是这些 AI 模型和大语言模型最擅长的任务,
00:04:58因为它是“文本入,文本出”。而且,大部分相关的上下文信息,
00:05:04即便不是全部,也都存在于代码库中,供模型参考和使用。
00:05:10这与数字世界中的许多其他任务相比,有着巨大的区别。
00:05:16但无论我们讨论的是编程智能体还是像 OpenClaw 这样的通用智能体,提示词注入都是个大问题。
00:05:22提示词注入可能非常隐蔽或出人意料。你可能会说,
00:05:30在使用 OpenClaw 或编程助手时,提示词是由你编写的。但问题是,
00:05:37一旦你的编程助手去访问某个网站,或者像 OpenClaw 那样去阅读邮件,
00:05:44它处理的所有外部文本都会进入新的提示词中。这就是提示词注入的攻击向量。
00:05:51对于编程智能体,优势在于你首先应该在沙盒中运行它,
00:05:58其次,它们通常没有权限广泛访问你的邮箱或所有的数字生活数据。
00:06:05而且作为开发者,你应该始终关注编程智能体的一举一动。
00:06:13它通常需要你授权或拒绝操作,它会不断询问你
00:06:18是否允许执行某项操作。当然,你也可以开启危险模式。
00:06:24如果你把它放在沙盒里,或许能保证它不会删掉你的硬盘,但如果你完全
00:06:32不检查编程智能体的行为,你就已经踏入了一些关于提示词注入的危险地带。
00:06:39即便如此,编程智能体与 OpenClaw 最大的区别在于,
00:06:45前者无法访问你的整个数字生活。然而,
00:06:49OpenClaw 的愿景是打造一个连 Peter 的母亲都能使用的智能体。理所当然,
00:06:57它的理念是让智能体为你做任何事。你只需发个消息:”嘿,
00:07:03请帮我查收邮件并草拟回复。” 那么它显然需要访问你的邮箱账号。
00:07:09既然有了权限,它就能发送邮件。我担心的不仅是它可能会发送
00:07:14带有侮辱性的邮件(这已经很糟了),而是它可能会窃取数据。因为它
00:07:19拥有数据搜集能力。它可以在你的系统中漫游,收集资料,
00:07:24然后通过邮件发送给恶意攻击者,比如通过一次提示词注入攻击。这就是
00:07:30我在视频中分享的重大安全隐患,而且这个问题依然存在。
00:07:35更重要的是,即使有 OpenAI 背书,这个问题依然会长期存在。
00:07:42那么,这能解决吗?据我所知,由于大语言模型的工作原理,
00:07:48这个问题无法从根本上消除,只能依靠一个存在已久的概念,
00:07:54即“零信任”。这意味着你在运行智能体时,
00:08:02不信任它的任何动作,限制它的权限,并且必须由你
00:08:10显式授予执行特定任务的权限。例如,在发送邮件时,
00:08:14你可能希望设置这样一个环境:它想发送的每一封邮件都必须询问你,
00:08:20由人类进行验证,然后批准或拒绝该请求。当然,
00:08:25这种极其严格、需要频繁授权的环境,
00:08:33与“让你在睡觉时帮你搞定一切的超级智能体”这种愿景
00:08:39是背道而驰的。
00:08:45这也是为什么我目前看不清智能体的未来,短期内可能也不会,
00:08:55但我想我们可以看看 OpenAI 能做些什么。他们也可能
00:09:03不太在乎安全问题,但他们大概率必须在乎,因为如果数据被泄露,
00:09:10他们的付费客户肯定不会买账。长话短说,虽然我看到了 OpenClaw 这类工具的吸引力,
00:09:20但我依然持高度怀疑态度。拥有一个全天候处理数字事务的得力助手
00:09:27听起来确实很诱人,我也认同这可能是我们未来的发展方向。
00:09:35即便我目前还没发现它对我有什么特别大的用处,因为我不想给它
00:09:42那么广泛的权限,而且即便给了权限,我也不确定是否有那么多应用场景。
00:09:48尽管如此,我完全理解为什么 OpenAI 对这个项目如此感兴趣。
00:09:55不过这也可能意味着 OpenClaw 本身会逐渐消失,热度可能很快就会消退,
00:10:03一方面是因为 OpenAI 的形象问题,另一方面,
00:10:09这听起来非常像典型的企业公关辞令:他们说“我们会支持这个项目”,
00:10:14然后某一天他们就不再支持了,不再关心了,转而开发自己的产品。
00:10:20到那时候,我们就能看到那个产品到底是好是坏了。