00:00:00好的,Hermes 是一款由美国 News Research 公司开发的开源 AI 智能体,它是
00:00:06自我改进型的。所以基本上,你用得越多,它就变得越强大。它会反思、
00:00:10学习并自主进化,它永远不会忘记你所说过的任何话,甚至能创建自己的
00:00:16技能。但这些是否足以取代像 OpenClaw 这样支持更多
00:00:22频道、拥有更好沙箱机制且更成熟的产品呢?点击订阅,让我们开始吧。
00:00:30Hermes 这个名字,不出所料,源自希腊神话中的信使之神。而
00:00:37这个符号也是由此而来的。你会在视频后面看到更多相关内容。但就目前而言,
00:00:42我已经制作过关于 OpenClaw 的视频了,它很棒,但有很多功能我
00:00:47个人并不会使用。还有 NanoClaw,它的功能集要小得多,但是基于
00:00:52Claude 智能体 SDK 构建的,由于使用 Claude 订阅与
00:00:59第三方工具配合的奇怪规则,它现在对我来说实用性降低了。所以我现在正在寻找新的 AI 助手,
00:01:04让我们看看这款自我改进的 AI 智能体 Hermes 是否能填补这个空缺。我将使用它
00:01:09根据我过去制作的视频,为我撰写宣传推文。我会给它
00:01:14一些脚本和指令来引导它。虽然这是一个很小的任务,但重点是
00:01:20看 Hermes 是否能记住我的写作风格以及我将给出的所有反馈,从而
00:01:26生成我喜欢的推文,而不需要我反复要求。我们开始吧。我已经
00:01:30使用这条简单的命令安装好了 Hermes,整个过程非常顺利,包括
00:01:35选择模型。我选择了 OpenRouter 上的 Gemma 4,但如果我的硬件能够支撑,
00:01:40我会选择在本地运行并连接到 Hermes、消息平台和 CLI 工具。如果你
00:01:45用过 OpenClaw,整个过程会感觉非常熟悉。为了保险起见,我还将其设置在 VPS 上,
00:01:51但如果你想的话,也可以轻松地安装在本地机器上。现在,
00:01:55我将输入 Hermes 命令,这将启动一个新的对话,显示 Hermes 符号以及
00:01:59这里可用的工具和技能。请注意,运行 Hermes 命令时,它会创建一个
00:02:04新会话,不会恢复上一个会话,除非你特别指定,就像 Claude Code 一样。这里我
00:02:08将给它一个提示词:我想让你帮我根据我视频的脚本写推文。
00:02:12让我们走一遍流程。过了一会儿,它返回了一个响应,
00:02:16我很喜欢它的结构。所以我打算给它一个追问提示:我在
00:02:21scripts 文件夹里有脚本,研究它们以了解我的写作风格和语气。我还告诉了它
00:02:25我的目标受众以及我希望的推文长度。现在它正在使用一些工具来搜索
00:02:30我的文件,过了一会儿,它分析了我的脚本,并给出了我风格的细分。
00:02:34它说我既务实又带着审视,这是真的。我以开发者为中心,透明
00:02:40且平易近人。它还针对我的目标受众制定了一个策略,看起来不错。
00:02:45但我改变主意了。尽管我之前说希望推文在 210 个字符左右,
00:02:50但我实际上想要更长一点。所以我打算给它一个新的提示词。我也注意到
00:02:54它一直运行得比较慢,而且消耗了大量上下文。所以我可以做的是在会话中途
00:02:59通过运行 model 斜杠命令并指定我想要的模型来更换模型。在这种情况下,我想要
00:03:04GLM 5 Turbo。现在它已经切换到该模型了。我将给它一个新的提示词
00:03:08把推文写长一点。它返回响应的速度快了很多,而且在没有我要求的情况下
00:03:13主动将大量信息添加到内存中。它将长度从 210 改为 400,并更改了
00:03:19我想要的推文风格。让我们看看我是否真的能从我最新的脚本中生成一条不错的推文。
00:03:23它的第一次尝试相当不错,但有一些内容是我
00:03:28个人不会说的,比如 "breaking a sweat",我也不会用 "incredible" 这个词。我会用 "really good" 这个短语。
00:03:34在几次调整后,它生成了一条我会说真的能用在
00:03:39我个人资料里的推文。它把这些都存入了内存。我将提示它创建一个技能。这样
00:03:44以后写推文就更方便了。现在它使用技能管理器技能去
00:03:49创建一个技能。让我们看看实际效果。看,它已经为我写好了一条推文,并提供了多个选项,
00:03:54我可以选择最喜欢的一个。它甚至还创建了一个推文串,如果我愿意,
00:03:59可以用它写多条推文。所以从技术上讲,因为它记住了所有事情,
00:04:04如果我创建一个全新的 Hermes 会话,更改默认模型,并询问它是否知道
00:04:09我喜欢怎么写推文,它返回的响应会准确地告诉我我喜欢怎么写
00:04:14我的推文,甚至细化到我喜欢用的表情符号类型。现在你可能会好奇 Hermes 是如何
00:04:19能从内存中提取所有这些信息而不烧掉你的 Token 的。嗯,
00:04:24内存存储在一个外部文件中。可能是你的 memory.md 文件,或者是像
00:04:30super memory、mem0 或 open viking 这样的外部处理器(如果你配置了的话)。内存会在每个会话中预加载或预取。
00:04:38但这并不是全部内容。事实上,它是一个压缩版本,限制在大约
00:04:433500 个字符,根据模型不同大约是 700 个 Token。但所有的会话
00:04:49都存储在一个使用 FTS5 进行全文搜索的 SQLite 数据库中。所以如果你让 Hermes 记住
00:04:56你昨天说的话,它会进入数据库进行搜索,然后给你
00:05:01相关信息。它还会做一些有点奇怪的事。当上下文窗口超过 50% 时,它会压缩你的会话,
00:05:06这与 Claude Code 不同,后者是在 80% 时进行的。但我猜这很难
00:05:11根据模型确定一个好的标准。所以 50% 是一个不错的粗略数值。但它所做的是,
00:05:17它不是压缩整个内容,而是删除旧工具调用的输出,并保留会话的
00:05:23头部和尾部,但压缩中间部分。这才是真正保存到 SQLite
00:05:28数据库里的内容,而不是完整的对话本身。它还会每 10 轮左右提醒自己一次,以保存
00:05:35重要信息到内存中,并在必要时编写技能。现在我知道通过我给出的
00:05:39这段简短的演示会话,很难看到 Hermes 的全部威力,但希望
00:05:44你能推断出它根据你提供的信息进行记忆和创建技能的能力有多强。
00:05:50实际上我会更频繁地使用它。所以这个月或者下个月,
00:05:54我将专注于使用 Hermes 作为我的主要个人助手,搭配一个像 GLM 这样非常便宜的模型,
00:05:59我会告诉大家进展如何。但一如既往,请在评论区留下你的想法。
00:06:04再次强调,别忘了订阅,下次见,祝大家编码愉快。