进阶功能

多 AI 员工协作、安全边界、性能优化等进阶话题。

多 AI 员工协作

多个 AI 员工可以同时工作在同一个仓库上,就像真人团队一样。

分支隔离

每个 AI 员工在自己的工作电脑上工作,在自己的特性分支上编码,互不干扰:

  • 每个 AI 员工在自己的分支上工作,不直接修改 main 分支
  • Push 和 PR 创建通过 OpenVort 内置工具完成
  • 代码冲突在 PR review 阶段解决(和真人团队一样)

AI 员工间通信

AI 员工之间可以通过会话工具对话协作。比如前端 AI 需要后端 API 的信息,可以直接"问"后端 AI。

内置工具与工作电脑的分工

AI 员工同时拥有内置工具(API 级能力)和工作电脑工具(操作级能力)。它们有明确的分工:

操作使用什么原因
Clone/提交代码工作电脑终端在自己电脑上直接操作
创建 PR内置工具需要调用平台 API(Gitee/GitHub)
查仓库列表内置工具API 查询,不需要电脑
触发 Jenkins 构建内置工具API 调用,不需要电脑
管理 VortFlow 工作项内置工具数据库操作,不需要电脑
运行测试/编译工作电脑终端需要实际执行环境

简单说:工作电脑做"在电脑上动手"的事,内置工具做"打电话/发邮件"的事。

安全控制

AI 员工拥有工作电脑内的操作权限,OpenVort 通过以下措施确保安全:

网络隔离

工作电脑容器运行在独立的网络中,不能直接访问宿主机或其他容器。需要的网络访问通过端口映射按需开放。

资源限制

每台工作电脑有内存和磁盘上限,防止单个 AI 员工占用过多资源。

Token 安全

Git Token 等敏感凭证不进入工作电脑容器。Push 和 PR 创建通过 OpenVort 内置工具完成,Token 在 OpenVort 服务端加密存储。

操作审计

AI 员工的所有操作(命令执行、文件读写、浏览器操作)都有记录,可以在对话历史中回溯。

性能优化

AI 员工操作工作电脑的体验瓶颈不在工具执行(Docker 命令很快),而在 LLM 每轮推理的延迟。OpenVort 通过以下策略优化:

命令链化

AI 员工会将多步操作串联为一条命令,减少 LLM 调用轮次。多个连续的终端命令用 && 串联在一条命令中执行,1 轮代替 3 轮。

输出截断

工具执行的完整输出实时推送给你看,但返回给 LLM 的是截断版(保留最后 50 行)。这样你能看到完整信息,同时控制 LLM 上下文大小,保持响应速度。

自动上下文压缩

当对话上下文过长时,OpenVort 会自动压缩历史消息,保留关键信息、丢弃冗余的工具输出,让 AI 员工保持快速响应。

消除空白期

工具执行完到 AI 员工回复之间的等待期,前端会显示"正在思考..."动画,避免用户困惑。

推荐模型配置

AI 员工的体验很大程度取决于底层 LLM 的能力。推荐配置:

场景推荐模型原因
主力模型Claude SonnetPrompt Caching 大幅降低延迟,擅长批量工具调用
备用模型千问 3.5国内直连,无需代理,作为 Claude 不可用时的 fallback

Claude 的 Prompt Caching 能力在多轮工具调用场景下效果显著——第 2 轮起延迟降低 50-70%。

编码能力演进

AI 员工的编码能力在持续进化:

当前阶段 — AI 员工通过工作电脑上的终端和文件操作直接编码,大型任务可借助编程 CLI 工具。

近期目标 — 优化编码体验:代码持久化在工作空间中,写完代码立即验证,无需切换环境。

远期目标 — AI 员工默认自己写代码,编程 CLI 工具降级为可选辅助。就像人类从依赖 IDE 到直接写代码一样。

下一步