Transcript

00:00:00OpenClaw 现已加入 OpenAI,其创始人 Peter Steinberger
00:00:05也随之加入。我认为从开发者的角度来看,这件事非常有趣,
00:00:12原因有几点。它向我们展示了 OpenAI 未来的发展方向,
00:00:17而且我认为这会带来一些有趣的连锁反应。Peter 在他网站的博客中提到,
00:00:25他的下一个使命是打造一个连他妈妈都能轻松使用的智能体。
00:00:32因为目前的 OpenClaw 依然需要一定的技术背景或专业知识
00:00:38才能完成设置和使用。但我认为这反而是件好事,
00:00:45正如我在前几周的视频中提到的,OpenClaw 可能存在危险或严重的安全性问题,
00:00:53很多即使有技术背景的人,要么没意识到,要么干脆忽视了这些问题。
00:01:00又或者,他们并没有像在社交媒体上分享的那样,用 OpenClaw 做了很多真正有用的事。
00:01:06毕竟现在是 2026 年,网络上什么都可能发生。总之,我在那段视频里分享了看法,
00:01:12但在这里我还会不时提到它。让 AI 智能体变得人人可用,
00:01:19——假设他母亲不是那种顶尖开发者——这显然是所有 AI 公司,
00:01:27无论是 OpenAI 还是 Thoughtbreak,都在追求的目标。虽然让我们这些开发者
00:01:34成为 Cloud Code、Codex 等优秀工具的用户已经很不错了,
00:01:41但大众市场的规模要大得多。这些公司的终极目标自然是
00:01:47让 AI 智能体包揽一切,本质上就是取代人类。首先是数字领域,
00:01:56接着是通过机器人技术扩展到现实。关于这是否会很快实现,我今天不想细说,
00:02:04我在很多视频里都表达过观点。我不认为开发者会在短期内被取代,
00:02:11更不用说全人类了。我也并不认为这是一个好目标。但这
00:02:18又是另一个话题了。有趣的是,Sam Altman 分享说,
00:02:27随着 Peter Steinberger 的加入,他们最终期望 OpenClaw 能迅速成为
00:02:35其核心产品线的一部分,也就是像 OpenClaw 这样的 AI 智能体。他还提到,
00:02:42OpenClaw 将作为一个开源项目保留在基金会中,由 OpenAI 继续提供支持。
00:02:48未来的趋势将是极其多智能体化的,所以支持开源对他们来说很重要。
00:02:54从这段话中,我能非常清晰地读出,OpenAI 将在 OpenClaw 的基础上,
00:03:01利用其经验教训甚至是部分代码库,构建自己的智能体产品。
00:03:09所以,OpenClaw 确实会保持开源,他们也会继续提供支持,
00:03:16可能就像他们说会“保持开放”一样,谁知道呢。但他们肯定会
00:03:22基于 OpenClaw 的经验构建一个新的智能体。就我理解,它很可能不会开源,
00:03:29而是一个付费产品。从商业角度来看,这完全合情合理。
00:03:34现在,回到我在视频中提到的关于 OpenClaw 安全性的担忧。
00:03:44我最大的担忧并不是代码库中的漏洞,因为漏洞可以随着时间推移被修复,
00:03:50而且有 OpenAI 这样的大公司背书,这对修复漏洞大有裨益。这并非我最担心的。
00:03:58我一直以来对 OpenClaw 最大的担忧是“提示词注入”。
00:04:08这是我对所有这类智能体的头号担忧。它是大语言模型的一个根本性缺陷。
00:04:16编程智能体是极佳的助手,但它们会犯很多错,需要人类引导。
00:04:25每当我听人说 AI 已经可以独立完成端到端软件开发时,我都迫不及待地想
00:04:31见识一下这些软件,因为我的实际经验并非如此。但是,
00:04:37在能力出众的开发者手中,这些编程智能体确实能带来显著的生产力提升。
00:04:44这是我的亲身体验,也是我对编程智能体的看法。但重点是,它们离取代开发者还差得远。
00:04:50当然,从某种程度上说,编程是这些 AI 模型和大语言模型最擅长的任务,
00:04:58因为它是“文本入,文本出”。而且,大部分相关的上下文信息,
00:05:04即便不是全部,也都存在于代码库中,供模型参考和使用。
00:05:10这与数字世界中的许多其他任务相比,有着巨大的区别。
00:05:16但无论我们讨论的是编程智能体还是像 OpenClaw 这样的通用智能体,提示词注入都是个大问题。
00:05:22提示词注入可能非常隐蔽或出人意料。你可能会说,
00:05:30在使用 OpenClaw 或编程助手时,提示词是由你编写的。但问题是,
00:05:37一旦你的编程助手去访问某个网站,或者像 OpenClaw 那样去阅读邮件,
00:05:44它处理的所有外部文本都会进入新的提示词中。这就是提示词注入的攻击向量。
00:05:51对于编程智能体,优势在于你首先应该在沙盒中运行它,
00:05:58其次,它们通常没有权限广泛访问你的邮箱或所有的数字生活数据。
00:06:05而且作为开发者,你应该始终关注编程智能体的一举一动。
00:06:13它通常需要你授权或拒绝操作,它会不断询问你
00:06:18是否允许执行某项操作。当然,你也可以开启危险模式。
00:06:24如果你把它放在沙盒里,或许能保证它不会删掉你的硬盘,但如果你完全
00:06:32不检查编程智能体的行为,你就已经踏入了一些关于提示词注入的危险地带。
00:06:39即便如此,编程智能体与 OpenClaw 最大的区别在于,
00:06:45前者无法访问你的整个数字生活。然而,
00:06:49OpenClaw 的愿景是打造一个连 Peter 的母亲都能使用的智能体。理所当然,
00:06:57它的理念是让智能体为你做任何事。你只需发个消息:”嘿,
00:07:03请帮我查收邮件并草拟回复。” 那么它显然需要访问你的邮箱账号。
00:07:09既然有了权限,它就能发送邮件。我担心的不仅是它可能会发送
00:07:14带有侮辱性的邮件(这已经很糟了),而是它可能会窃取数据。因为它
00:07:19拥有数据搜集能力。它可以在你的系统中漫游,收集资料,
00:07:24然后通过邮件发送给恶意攻击者,比如通过一次提示词注入攻击。这就是
00:07:30我在视频中分享的重大安全隐患,而且这个问题依然存在。
00:07:35更重要的是,即使有 OpenAI 背书,这个问题依然会长期存在。
00:07:42那么,这能解决吗?据我所知,由于大语言模型的工作原理,
00:07:48这个问题无法从根本上消除,只能依靠一个存在已久的概念,
00:07:54即“零信任”。这意味着你在运行智能体时,
00:08:02不信任它的任何动作,限制它的权限,并且必须由你
00:08:10显式授予执行特定任务的权限。例如,在发送邮件时,
00:08:14你可能希望设置这样一个环境:它想发送的每一封邮件都必须询问你,
00:08:20由人类进行验证,然后批准或拒绝该请求。当然,
00:08:25这种极其严格、需要频繁授权的环境,
00:08:33与“让你在睡觉时帮你搞定一切的超级智能体”这种愿景
00:08:39是背道而驰的。
00:08:45这也是为什么我目前看不清智能体的未来,短期内可能也不会,
00:08:55但我想我们可以看看 OpenAI 能做些什么。他们也可能
00:09:03不太在乎安全问题,但他们大概率必须在乎,因为如果数据被泄露,
00:09:10他们的付费客户肯定不会买账。长话短说,虽然我看到了 OpenClaw 这类工具的吸引力,
00:09:20但我依然持高度怀疑态度。拥有一个全天候处理数字事务的得力助手
00:09:27听起来确实很诱人,我也认同这可能是我们未来的发展方向。
00:09:35即便我目前还没发现它对我有什么特别大的用处,因为我不想给它
00:09:42那么广泛的权限,而且即便给了权限,我也不确定是否有那么多应用场景。
00:09:48尽管如此,我完全理解为什么 OpenAI 对这个项目如此感兴趣。
00:09:55不过这也可能意味着 OpenClaw 本身会逐渐消失,热度可能很快就会消退,
00:10:03一方面是因为 OpenAI 的形象问题,另一方面,
00:10:09这听起来非常像典型的企业公关辞令:他们说“我们会支持这个项目”,
00:10:14然后某一天他们就不再支持了,不再关心了,转而开发自己的产品。
00:10:20到那时候,我们就能看到那个产品到底是好是坏了。

Key Takeaway

OpenAI 通过收购 OpenClaw 加速布局通用 AI 智能体市场,但如何在追求极致易用性的同时,解决提示词注入带来的数据隐私与安全风险,仍是该行业面临的核心悖论。

Highlights

OpenAI 收购 OpenClaw 及其创始人 Peter Steinberger,预示着 AI 智能体将成为其核心产品方向。

Peter Steinberger 的愿景是打造一个“人人可用”且极其简便的智能体,降低目前的技术门槛。

提示词注入(Prompt Injection)被视为 AI 智能体面临的最大且难以从根本上消除的安全威胁。

编程智能体与通用智能体在权限上有显著区别,前者通常在沙盒中运行且受开发者实时监控。

实现“全自动智能体”的愿景与保障安全的“零信任”原则(需人类显式授权)之间存在天然矛盾。

OpenAI 虽承诺维持 OpenClaw 的开源地位,但极可能基于其经验开发不开源的商业付费产品。

Timeline

OpenAI 收购 OpenClaw 及其战略意义

本段介绍了 OpenClaw 创始人 Peter Steinberger 加入 OpenAI 的消息,并探讨了这一动作对开发者的深远影响。作者指出,Peter 的目标是创建一个连非技术人员(如他母亲)都能轻松使用的智能体,这标志着 AI 工具正在从专业市场转向规模更大的大众市场。虽然目前 OpenClaw 仍需一定的技术背景才能配置,但各大公司都在竞相简化流程以取代人类的数字劳作。作者对“智能体短期内取代人类”的观点持保留态度,认为这并非一个理想的终极目标。尽管如此,这一收购明确展示了 OpenAI 未来将重点发力智能体产品的信号。

OpenAI 的产品规划与开源承诺

视频提到了 Sam Altman 对此次收购的看法,他期望 OpenClaw 能迅速融入 OpenAI 的核心产品线。虽然官方承诺 OpenClaw 会作为开源项目保留在基金会中,但作者对其长期透明度表示怀疑。他预测 OpenAI 会吸取 OpenClaw 的代码库经验,转而构建一个功能更强大但并不开源的付费商业智能体。这种做法在商业上完全合情合理,因为多智能体协作是未来的必然趋势。作者提醒观众,企业公关辞令往往带有变数,开源支持可能会随时间推移而减弱。这一节强调了商业利益与开源精神之间微妙的博弈关系。

致命安全隐患:提示词注入

作者深入探讨了 AI 智能体面临的首要安全隐患,即“提示词注入”攻击,并称其为大语言模型的根本性缺陷。他认为代码漏洞尚可修复,但这种由于模型处理外部文本逻辑导致的缺陷极难根除。虽然编程智能体在专业开发者手中是提效神器,但若缺乏人类引导,它们依然会犯下大量错误。本段对比了编程智能体与通用智能体的差异,指出编程任务相对可控是因为其具有“文本入、文本出”的特性。作者强调,只要智能体开始接触外部非受控文本,风险就会呈指数级增长。这部分内容警示用户不要盲目迷信 AI 的独立开发能力。

权限扩张带来的数据泄露风险

这一章节详细解释了提示词注入的攻击向量,特别是当智能体具备读取邮件或访问网站权限时。当攻击者发送包含恶意指令的文本被智能体读取,智能体可能会在未经授权的情况下执行操作。对于 OpenClaw 这种旨在接管数字生活的工具,它可能在后台搜集隐私数据并通过邮件发送给黑客。作者认为即使有 OpenAI 的技术背书,由于 LLM 的工作原理,这种隐患也将长期存在。相比之下,编程助手通常被限制在沙盒中且权限有限,安全风险相对较低。这段分析揭示了“功能全覆盖”与“隐私保护”之间的巨大冲突。

零信任原则与智能体未来的悖论

在视频的最后,作者提出了“零信任”模型作为可能的解决方案,即每一项关键操作都必须经过人类的人工核准。然而,这种频繁的显式授权过程与“让智能体在睡觉时搞定一切”的愿景完全背道而驰。这种用户体验上的摩擦使得智能体的未来应用场景变得模糊,作者对此持高度怀疑态度。他认为 OpenAI 必须在企业客户流失风险与产品易用性之间取得平衡,否则 OpenClaw 可能只会昙花一现。最终,作者总结道,虽然全天候数字助手听起来诱人,但在安全问题解决前,他不会给予其广泛权限。这段总结为观众提供了一个冷静且批判性的视角来看待当前的 AI 热潮。

Community Posts

View all posts