进阶功能
多 AI 员工协作、安全边界、性能优化等进阶话题。
多 AI 员工协作
多个 AI 员工可以同时工作在同一个仓库上,就像真人团队一样。
分支隔离
每个 AI 员工在自己的工作电脑上工作,在自己的特性分支上编码,互不干扰:
- 每个 AI 员工在自己的分支上工作,不直接修改 main 分支
- Push 和 PR 创建通过 OpenVort 内置工具完成
- 代码冲突在 PR review 阶段解决(和真人团队一样)
AI 员工间通信
AI 员工之间可以通过会话工具对话协作。比如前端 AI 需要后端 API 的信息,可以直接"问"后端 AI。
内置工具与工作电脑的分工
AI 员工同时拥有内置工具(API 级能力)和工作电脑工具(操作级能力)。它们有明确的分工:
| 操作 | 使用什么 | 原因 |
|---|---|---|
| Clone/提交代码 | 工作电脑终端 | 在自己电脑上直接操作 |
| 创建 PR | 内置工具 | 需要调用平台 API(Gitee/GitHub) |
| 查仓库列表 | 内置工具 | API 查询,不需要电脑 |
| 触发 Jenkins 构建 | 内置工具 | API 调用,不需要电脑 |
| 管理 VortFlow 工作项 | 内置工具 | 数据库操作,不需要电脑 |
| 运行测试/编译 | 工作电脑终端 | 需要实际执行环境 |
简单说:工作电脑做"在电脑上动手"的事,内置工具做"打电话/发邮件"的事。
安全控制
AI 员工拥有工作电脑内的操作权限,OpenVort 通过以下措施确保安全:
网络隔离
工作电脑容器运行在独立的网络中,不能直接访问宿主机或其他容器。需要的网络访问通过端口映射按需开放。
资源限制
每台工作电脑有内存和磁盘上限,防止单个 AI 员工占用过多资源。
Token 安全
Git Token 等敏感凭证不进入工作电脑容器。Push 和 PR 创建通过 OpenVort 内置工具完成,Token 在 OpenVort 服务端加密存储。
操作审计
AI 员工的所有操作(命令执行、文件读写、浏览器操作)都有记录,可以在对话历史中回溯。
性能优化
AI 员工操作工作电脑的体验瓶颈不在工具执行(Docker 命令很快),而在 LLM 每轮推理的延迟。OpenVort 通过以下策略优化:
命令链化
AI 员工会将多步操作串联为一条命令,减少 LLM 调用轮次。多个连续的终端命令用 && 串联在一条命令中执行,1 轮代替 3 轮。
输出截断
工具执行的完整输出实时推送给你看,但返回给 LLM 的是截断版(保留最后 50 行)。这样你能看到完整信息,同时控制 LLM 上下文大小,保持响应速度。
自动上下文压缩
当对话上下文过长时,OpenVort 会自动压缩历史消息,保留关键信息、丢弃冗余的工具输出,让 AI 员工保持快速响应。
消除空白期
工具执行完到 AI 员工回复之间的等待期,前端会显示"正在思考..."动画,避免用户困惑。
推荐模型配置
AI 员工的体验很大程度取决于底层 LLM 的能力。推荐配置:
| 场景 | 推荐模型 | 原因 |
|---|---|---|
| 主力模型 | Claude Sonnet | Prompt Caching 大幅降低延迟,擅长批量工具调用 |
| 备用模型 | 千问 3.5 | 国内直连,无需代理,作为 Claude 不可用时的 fallback |
Claude 的 Prompt Caching 能力在多轮工具调用场景下效果显著——第 2 轮起延迟降低 50-70%。
编码能力演进
AI 员工的编码能力在持续进化:
当前阶段 — AI 员工通过工作电脑上的终端和文件操作直接编码,大型任务可借助编程 CLI 工具。
近期目标 — 优化编码体验:代码持久化在工作空间中,写完代码立即验证,无需切换环境。
远期目标 — AI 员工默认自己写代码,编程 CLI 工具降级为可选辅助。就像人类从依赖 IDE 到直接写代码一样。