AI常见问题

最终形态

智能体将代替90%的操作员,例如:部署、运维等这类工作将会消失; agent 会操作各种类专业的基础设施软件进行更高效的工作,剩余 10% 的人用于搭建和调度 Agent 智能体;而 docker、nginx 等这些专业软件将长期存在,并逐渐 API 化,以便 agent 更方便的进行部署和配置。


AI幻觉

AI模型本质上根据概率预测下一个字符,因此其出现幻觉的原因如下:

  • 训练数据污染: 训练数据中包含错误的教程或过时的语法。
  • 状态脱节: 模型在回复时,无法实时感知服务器当前的真实反馈(例如磁盘满了、端口被占),它会“脑补”一个成功的操作结果。
  • 无法彻底解决: 这是一个概率问题,无法 100% 消除。但可以通过 RAG(检索增强生成) 喂入最新的官方文档,或使用 受限语法(Constrained Output) 强迫它输出正确的 JSON/Shell 格式来大幅降低概率。


上下文管理

Agent 通常需要做很多事情,而 Agent 的上下文管理直接决定了 AI 是“智将”还是“智障”;以下是目前的最佳实践:

a> OpenClaw 在执行操作时,并不是把屏幕的每一帧像素都传给 AI;它通常只会解析当前界面,并尽量忽略界面中无关的元素;当操作界面发生变化时,就会更新上下文,而不是继续向上下文中堆积更多信息。


b> 使用 RAG ,在使用某个专业工具或做会某些复杂工作时,应该联网搜索相关资料或通过RAG来辅助 Agent 工作,而不是将相关资料直接塞到上下文中。


c> 对于生成600页Word文件中这种“大型”操作,人类调试者应该提前做好安排和处理,确保 openClaw 只是调用执行。


如果 Token 用尽, OpenClaw 的 Agent 可能会陷入“报错 -> 重试 -> 报错”的死循环,上下文会迅速堆积垃圾信息,导致 AI 变得更加混乱。


执行者和督导员

对抗“幻觉”:从概率到逻辑的校验;

角色分离:避免“当局者迷”


1. 执行者 vs. 督导员:核心区别

维度执行者 (Worker Agent)督导员 (Critic Agent)核心任务“从无到有”:编写代码、执行命令、生成文档。“找茬纠错”:评审逻辑、查漏洞、对标规则。思维模式发散性:关注如何实现目标,容忍模糊。收敛性:关注规范与风险,严苛死板。操作权限拥有工具调用权(写文件、调 API)。拥有否决权回退权

2. 为什么督导员能起到作用?(底层逻辑)

督导员能起作用,并非因为它比执行者“更聪明”,而是源于信息不对称视角切换

  • 验证比生成容易: 就像证明一个数学题很难,但检查答案是否符合公式很简单。督导员只需根据已知的“标准(如:不能有 rm -rf)”进行匹配,计算压力小,准确率高。
  • 对抗性 Prompt: 督导员被注入了完全不同的指令集(如:“你是一个极其保守的安全专家,任何潜在风险都要打回”),这强迫系统从“乐观路径”转向“悲观路径”。
  • 上下文“去污”: 执行者在对话中会产生大量思维干扰,而督导员只看最终输出,不受执行过程中的报错、废话干扰,视角更客观。

3. 核心原理:多智能体博弈(Multi-Agent Debate)

其背后的核心技术原理是 “博弈论 + 静态规则校验”

  1. 角色解耦 (Decoupling): 将“创造”与“评价”两种冲突的心理模型分离在两个独立的 Session 中,避免 AI 陷入“自我辩护”的心理防御。
  2. 约束传播 (Constraint Propagation): 督导员手握一套硬性知识库(RAG)。例如你要求的“格式严格的 Word 模板”,督导员只负责核对生成的 XML 结构是否符合模板定义的 Schema,不符合就强制重算。
  3. 零样本/少样本校验 (Few-Shot Verification): 督导员通过大量正确/错误的案例对比,识别执行者输出中的异常模式。

总结

执行者是“油门”,负责进度;督导员是“刹车”,负责安全。 没有督导员,Agent 就会在幻觉中狂奔。

您是否需要我为您写一段专门针对 Linux 运维安全的“督导员指令集(System Prompt)”,好让它在 OpenClaw 中拦截高危操作?









举报

© 著作权归作者所有


0