TL;DR
本周,市场见证了从托管 SaaS 智能体向自托管和“开放外壳 (open-shell)”智能体架构的果断转变。Anthropic 决定测试将 Claude Code 从其标准 Pro 计划中移除,这引发了向 OpenClaw 和本地优先替代方案的迁移。对于企业团队而言,核心结论是:智能体基础设施的商品化速度超乎预期,使供应商中立的框架成为唯一的长期可行策略。
本周发布动态
Claude Code
Anthropic 的 Claude Code 仍然是终端智能体的基准,但其商业模式目前处于波动之中。本周有报告称,Anthropic 正在对约 2% 的新注册用户进行定价实验,取消了 Claude Code 作为 20 美元/月 Pro 计划包含功能的待遇。此举暗示其正向所有智能体交互的基于消耗的 API 计费模式过渡。更糟糕的是,一个严重的 bug 导致 git 提交历史中的特定字符串(尤其是 "HERMES.md")会触发隐藏的 API 计费,甚至对固定费率计划的用户也是如此。尽管存在这些障碍,高级用户仍在继续优化该工具。Garry Tan 发布了 gstack,这是一个包含 23 个工具的专业配置,有效地将 Claude Code 变成了跨职能管理层,涵盖了从 QA 到发布经理的各种角色。同时,像 everything-claude-code 仓库这样的社区驱动资源正专注于性能优化和内存管理,以降低与深层树代码分析相关的高额 Token 成本。
来源: Anthropic 定价测试 | Garry Tan 的 gstack
Hermes
由 Nous Research 领导的 Hermes 生态系统正致力于成为专有编程智能体的领先开放权重替代方案。hermes-agent 的发布以及配套的“橙皮书 (Orange Book)”文档,为希望构建随特定代码库“成长”的智能体的团队提供了路线图。然而,该生态系统本周在电子邮件集成方面面临批评。用户报告称,双向聊天通道将所有传入的发件人视为对话的有效参与者,这创造了一个潜在的社会工程学或自动化垃圾邮件循环向量。在开发方面,hermes-webui 作为管理这些智能体的移动端友好界面获得了关注,而 gbrain 为 OpenClaw 和 Hermes 用户提供了一个专业的“大脑”框架。这里的核心价值主张仍然是数据主权;Hermes 允许团队运行高推理能力的智能体,而无需将专有逻辑发送到外部服务器。
来源: Hermes Agent 橙皮书 | Hermes 计费 Bug 报告
OpenClaw
OpenClaw 已达到临界规模,其仓库最近突破了 10 万星里程碑。OpenClaw 常被称为“龙虾之道 (the lobster way)”,是 Claude Code 的模块化开源替代方案,支持任何操作系统和大多数前沿 LLM。该生态系统的增长由其技能注册表驱动,目前包含超过 5,400 个可安装技能。这允许开发人员通过简单地安装预定义的智能体行为来绕过复杂的提示工程。本周还推出了 cc-switch,这是一个桌面实用程序,允许用户在单个环境中切换 Claude Code、OpenClaw 和 Gemini CLI。虽然一些 CLI 纯粹主义者认为 OpenClaw 为经验丰富的开发人员增加了不必要的抽象,但对于管理异构环境(部分开发人员使用 Gemini,另一部分使用 Claude)的团队来说,其效用正变得不可忽视。
来源: OpenClaw 官方仓库 | Awesome OpenClaw 技能
Model Context Protocol (MCP)
Model Context Protocol 正迅速成为智能体与外部数据交互的行业标准。本周,modelcontextprotocol/servers 仓库的贡献量激增,包括用于实时趋势监控和文档索引的新连接器。TrendRadar 展示了如何使用 MCP 将公众舆论和热插拔 RSS 提要直接聚合到智能体的上下文窗口中。此外,RAGFlow 已集成 MCP,将传统的检索增强生成 (RAG) 与智能体能力融合,为 LLM 创建了更复杂的上下文层。对于企业团队而言,MCP 代表了防止智能体成为孤立孤岛的“连接组织”。团队现在不再为每个工具构建自定义集成,而是构建任何符合标准的智能体都可以查询的 MCP 服务器。
来源: MCP 服务器注册表 | RAGFlow MCP 集成
Gemini
Google 正在通过 gemini-cli 缩小在终端智能体领域的差距。这款开源智能体将 Gemini 1.5 Pro 的推理能力直接带入终端,专门针对 Claude Code 因 Token 限制而难以处理的长上下文窗口任务。本周发布的一个亮点工具是 graphify,它使用 Gemini 将整个文件夹的非结构化数据(代码、文档、图像和视频)转换为结构化知识图谱,供智能体消耗。这种方法绕过了简单向量搜索的局限性。然而,该生态系统也在处理安全披露问题;system_prompts_leaks 仓库最近发布了提取的 Gemini 3.1 Pro 和 CLI 的系统提示词,突显了保护智能体指令免受提示词注入和提取攻击的持续难度。
来源: Gemini CLI | Graphify 技能
Codex 和 Claw-Code
随着 claw-code 仓库的解锁,“轻量级智能体”类别正受到重新关注。claw-code 使用 Rust 构建以实现最高性能,专注于速度和低资源开销,与其它智能体较重的基于 Node 的实现形成对比。它利用 oh-my-codex 框架为开发人员提供高频反馈循环。与此同时,OpenAI 的 codex(轻量级终端智能体,而非模型)继续作为极简智能体界面应如何运作的基础参考。这些工具正越来越多地被捆绑到“awesome”列表和技能集合中,例如 awesome-claude-skills,它提供了将 Codex 风格的工作流移植到更现代智能体框架所需的配置文件。
来源: Claw-Code 仓库 | Awesome Claude 技能
值得关注的模式
从托管 SaaS 向开放外壳基础设施的转变
本周最重要的趋势是企业对“黑盒”智能体定价的拒绝。Anthropic 对 Claude Code 计费的实验暴露了一个脆弱性:如果提供商一夜之间改变智能体的经济模型,整个开发工作流都会面临风险。这正推动向 OpenClaw 等“开放外壳”智能体的转变。在这种模式中,界面和逻辑保持开源和本地化,而模型(“大脑”)保持热插拔特性。这提供了一个冗余层,允许团队在不重新培训员工使用新 CLI 的情况下,从 Claude 切换到 Gemini 或本地 Llama 实例。我们预计会有更多温哥华的工程团队采用这种解耦架构来降低供应商风险。
技能注册表取代提示工程
我们正在见证长篇提示工程的消亡,取而代之的是模块化的“技能”。像 awesome-openclaw-skills 和 antigravity-awesome-skills 这样的项目本质上是智能体行为的应用商店。开发人员不再指示智能体如何执行安全审计,而是简单地安装一个基于 JSON 或 YAML 的技能定义。这种模块化允许更好的版本控制、更容易的跨团队共享以及更可预测的智能体行为。首席技术官 (CTO) 面临的挑战将是审计这些社区贡献的技能是否存在恶意逻辑,因为受损的技能理论上可以在执行常规任务期间窃取代码。
智能体工作流中的财务可观测性
"HERMES.md" 计费 bug 是对财务主管的一个警示。传统的 SaaS 成本是可预测的——每用户每月 20 美元。然而,智能体工作流引入了通常隐藏在自动化过程背后的变量成本。一个递归读取 git 历史并因隐藏文件中的正则匹配错误而触发 API 调用的智能体,可能在几小时内烧掉数百美元。这催生了对新型“智能体财务运营 (Agentic FinOps)”工具的需求,这些工具可以在供应商账单到达之前,在 Shell 层面提供 Token 消耗的实时可见性。
对温哥华企业团队的意义
对于温哥华的技术领导者来说,智能体生态系统的快速演变要求从实验性用例转向生产级基础设施。这个以高增长 SaaS 和专业工程公司为特征的本地技术中心,只要部署安全且具有成本效益,就能从智能体自动化中独特地受益。
首先,团队应评估其对专有智能体界面的依赖。如果您的开发人员正变得依赖 Claude Code,请确保您拥有涉及 OpenClaw AI 智能体设置的冗余计划。这可以确保供应商定价或服务条款的变化不会瘫痪您的开发流水线。
其次,安全必须走向前台。随着智能体获得读写本地文件系统以及通过 MCP 与内部 API 交互的能力,数据泄露的风险也随之增加。处理敏感客户数据的温哥华公司应优先考虑 私有 AI 部署,以将智能体推理保持在受控边界内。
最后,目标应该是将这些智能体集成到现有的业务流程中,而不是将它们视为独立的聊天工具。NexAgent 在 温哥华 AI 自动化 方面的工作正专注于这种转变:从“与 AI 聊天”转向“部署执行工作流的智能体”。当前的生态系统提供了工具;企业的任务是提供治理和集成框架。
FAQ
问:为什么 Anthropic 正在更改 Claude Code 的定价? 答: Anthropic 正在测试将 Claude Code 从固定费率的 Pro 功能转变为基于消耗的模式。这可能反映了智能体工作流的高推理成本,这些工作流通常需要多次递归调用和大型上下文窗口,超出了每月 20 美元订阅费的利润空间。
问:与 Claude Code 相比,使用 OpenClaw 有什么好处? 答: OpenClaw 提供了供应商中立性和模块化。它支持多个 LLM 提供商(Anthropic、OpenAI、Google、本地),并允许安装社区开发的技能。这可以防止供应商锁定,并提供对智能体环境和数据处理的更多控制。
问:模型上下文协议 (MCP) 如何提高智能体性能? 答: MCP 为智能体访问外部数据提供了一种标准化的方式。智能体可以查询任何符合 MCP 标准的服务器,而不是为每个数据库或 API 编写硬编码集成。这显著提高了智能体在无需手动提示工程的情况下检索相关的实时信息的能力。
问:像 Hermes 这样的开源智能体对企业使用安全吗? 答: 虽然开源智能体提供了更好的数据主权,但它们需要严格的审计。“技能”和集成(如 Hermes 电子邮件频道)的模块化特性如果配置不当,可能会引入安全漏洞。企业团队应使用托管部署框架以确保安全。