OpenClaw从入门到应用——Agrnt:上下文窗口与压缩
通过OpenClaw实现副业收入《OpenClaw赚钱实录从“养龙虾“到可持续变现的实践指南》每个模型都有一个上下文窗口即模型能够处理的最大令牌数。长时间运行的对话会不断积累消息和工具结果一旦上下文窗口空间紧张OpenClaw 就会压缩较早的历史记录以保持在限制范围内。什么是压缩压缩将较早的对话内容汇总成一个紧凑的摘要条目同时保留最近的消息。该摘要会存储在会话历史记录中因此后续请求将使用压缩摘要压缩点之后的最近消息压缩会持久保存在会话的 JSONL 历史记录文件中。配置使用openclaw.json中的agents.defaults.compaction设置来配置压缩行为模式、目标令牌数等。压缩摘要默认会保留不透明的标识符identifierPolicy: strict。你可以通过设置identifierPolicy: off来覆盖此行为或者通过设置identifierPolicy: custom并提供identifierInstructions自定义文本来覆盖。你还可以通过agents.defaults.compaction.model为压缩摘要指定一个不同的模型。当你的主模型是本地模型或小型模型而你希望由能力更强的模型来生成压缩摘要时此功能非常有用。该覆盖设置接受任何provider/model-id格式的字符串{agents:{defaults:{compaction:{model:openrouter/anthropic/claude-sonnet-4-5}}}}这也适用于本地模型例如专门用于摘要生成的第二个 Ollama 模型或者一个经过微调的压缩专家模型{agents:{defaults:{compaction:{model:ollama/llama3.1:8b}}}}如果未设置该值压缩将使用代理的主模型。自动压缩默认开启当会话接近或超过模型的上下文窗口时OpenClaw 会触发自动压缩并可能使用压缩后的上下文重试原始请求。你会看到在详细模式下显示 Auto-compaction complete/status命令显示 Compactions:在压缩之前OpenClaw 可以执行一次静默内存刷新操作将持久性笔记存储到磁盘。有关详细信息和配置请参阅内存请参考https://blog.csdn.net/hy592070616/article/details/81707766。手动压缩使用/compact命令可选择附带指令来强制进行一次压缩/compact 关注决策和未解决的问题上下文窗口来源上下文窗口大小是模型特定的。OpenClaw 使用配置的提供者目录中的模型定义来确定限制。压缩 vs. 修剪压缩对内容进行摘要并持久保存到 JSONL 文件中。会话修剪仅修剪旧的工具结果每次请求时在内存中操作。有关修剪的详细信息请参阅 /concepts/session-pruning请参考https://blog.csdn.net/hy592070616/article/details/81707766。OpenAI 服务端压缩OpenClaw 还支持兼容的 OpenAI 直接模型使用 OpenAI Responses 服务端压缩提示。这与本地的 OpenClaw 压缩是分开的可以同时运行。本地压缩OpenClaw 生成摘要并持久保存到会话 JSONL 文件中。服务端压缩当启用store和context_management时OpenAI 在提供者一侧压缩上下文。请参阅 OpenAI 提供者请参考https://blog.csdn.net/hy592070616/article/details/81707766了解模型参数和覆盖设置。提示当会话感觉陈旧或上下文臃肿时使用/compact。大型工具输出已被截断修剪可以进一步减少工具结果的累积。如果你需要一个全新的开始使用/new或/reset可以启动一个新的会话 ID。