接入路径
环境 → 密钥 → 提供商 → 验证
先把基础设施接通,再让工具加入你的仓库流程,能明显减少“装好了却跑不起来”的时间损耗。
相似体验,不复用原站文案
这个站点围绕“如何让 AI 进入你的编码工作流”展开,覆盖命令行代理、编辑器插件、桌面聚合器与多服务商配置。 你可以先从快速配置指南入手,再按工具查看各自的安装、模型连接、基本使用、技巧与常见问题。
接入路径
先把基础设施接通,再让工具加入你的仓库流程,能明显减少“装好了却跑不起来”的时间损耗。
适用场景
阅读建议
如果你是首次接入,推荐先看“获取密钥”和“快速配置指南”;如果你已有常用模型,直接点下面的工具卡片即可。
入口区
从最常见的三条路径切入:先理解接入顺序,再进入工具文档,最后补上密钥和提供商配置。
支持工具
点击任一工具卡片即可滚动到对应文档。界面会随滚动自动高亮当前阅读中的工具。
快速配置指南
大多数 AI 编程工具真正需要的只有四类信息:可用模型、调用地址、身份凭证,以及一条能跑通的最小请求。
先决定你是直连官方接口,还是使用统一网关、代理服务、团队内中转层。后续 Base URL 与模型命名都依赖这一步。
把 API Key 放进环境变量或受控密钥管理方案,不要硬编码进仓库,也不要把截图发到群里。
团队协作时,最好约定一个默认模型名和一个保底模型名,方便脚本、CLI 和桌面工具共用。
先让工具回答一个简单问题、扫描一个小文件,确认认证、网络、模型权限都没问题,再开始改代码。
示例环境变量
# 按需保留你真正会用到的字段
AI_BASE_URL=https://your-provider.example/v1
AI_API_KEY=replace-with-your-key
AI_MODEL_PRIMARY=your-main-model
AI_MODEL_FALLBACK=your-fallback-model
AI_TIMEOUT_MS=120000
终端型文档
如果你喜欢在命令行里推进任务,Claude Code 这类终端助手很适合拿来做代码阅读、任务拆解、补丁生成和仓库内问答。
把它理解成“长期待在终端里的代码协作者”会比较容易:你给目标、边界和上下文,它负责理解仓库、提出步骤、生成补丁,并在必要时配合命令执行。
在正式装工具前,先确认终端、Git、项目依赖管理器和路径变量都已就绪。终端型助手最常见的问题不是模型本身,而是 PATH、权限和工作目录混乱。
安装命令会因发行版不同而变化。建议优先使用官方发布页、包管理器或团队内打包版本,并在安装后立即做版本检查。
一般只需要三项:密钥、接口地址、默认模型名。若你走的是兼容层或代理层,把 Base URL 配好往往比反复换密钥更重要。
示例
ANTHROPIC_API_KEY=replace-with-your-key
ANTHROPIC_BASE_URL=https://your-provider.example/v1
CLAUDE_CODE_MODEL=your-default-model
如果你接的是统一服务入口,也可以把多个工具都指向同一个 Base URL,再用各自的模型名和限流策略区分用途。
一个实用的开场方式是:先让它解释入口文件、状态管理、构建流程,再进入具体编码任务。这样生成的补丁通常更稳。
这类工具最重要的不是“背命令”,而是把任务目标、范围和停止条件说清楚。
MCP 可以理解成一层“额外能力接线板”。当你希望工具安全地访问浏览器、文档库、Issue 系统或内部脚本时,MCP 会很有用。
示意配置
{
"servers": {
"workspace-docs": {
"command": "node",
"args": ["./scripts/mcp-docs-server.js"],
"env": {
"DOCS_ROOT": "./docs"
}
}
}
}
建议只开放完成任务所需的最小能力,不要把整个系统权限都暴露给代理层。
因为模型可用不代表工程环境可用。先检查工作目录、Git 状态、测试命令、依赖安装和文件权限,再看模型问题。
可以,但尽量让 shell、路径和项目命令保持一致。若你的工具链主要在 WSL 或容器里,最好全程保持同一环境。
在提示里明确限定范围,例如指定目录、文件数、验证方式和停止条件,并要求“每步输出 diff”。
编辑器型文档
如果你更习惯在编辑器里完成绝大多数工作,Roo Code 这类插件型助手会更自然:它能紧贴当前文件、选区和工作区状态来协助你。
Roo Code 更像“编辑器侧的工作搭子”。它的优势不在于命令行执行,而在于你可以一边看文件、一边圈定范围、一边让 AI 修改当前上下文。
做法通常很直接:在支持的编辑器市场中搜索插件、安装、授予工作区信任,然后重启编辑器。第一次启动时建议只打开一个小项目来做验证。
如果编辑器本身带有代理或同步设置,先确认它不会拦截你的 API 请求,再继续填入密钥。
插件类工具一般会把提供商设置放进图形界面:选择 Provider、填写 Base URL、输入 API Key、选择默认模型,然后保存。
字段示意
{
"provider": "custom-compatible",
"baseUrl": "https://your-provider.example/v1",
"apiKey": "replace-with-your-key",
"model": "your-default-model"
}
若你有多个模型,建议分别配置“对话型”“代码生成型”“长上下文型”三种预设,避免频繁改参数。
对插件型工具来说,“当前上下文”就是最大的优势。你只要善用选区、打开的标签页和工作区边界,它的答复就会更贴近你眼前的代码。
优先检查代理设置、Base URL、API Key 和模型名是否匹配;其次查看编辑器开发者控制台是否有请求报错。
有些模式会读取整个工作区。如果你想强约束,明确告诉它“只处理当前文件”或“只读模式解释”。
适合,但建议把提供商、模型命名和代码风格约束先标准化,再发给团队统一导入。
开放配置型文档
OpenCode 适合偏爱开放配置、喜欢自己决定提供商和默认参数的人。它通常强调“配置先行”,让项目级设置更容易落地。
这类工具的核心价值在于“你能控制它怎么连模型、怎么保存默认值、怎么为不同项目切换不同策略”。如果你经常在多个服务商之间切换,OpenCode 会比较顺手。
安装方式通常分为两条:使用发行版提供的包管理器命令,或者直接下载二进制文件加入 PATH。完成后先跑一次帮助命令或版本命令,确认入口已可用。
安装思路
# 方式 A:使用你选择的包管理器安装
<package-manager> install <opencode-package>
# 方式 B:验证命令入口
opencode --help
先选一个默认 Provider,再补上备用 Provider,是比较稳妥的做法。默认 Provider 用于日常开发,备用 Provider 用于高峰期或模型策略切换。
OpenCode 往往允许全局配置和项目配置并存。推荐做法是:全局里放默认 Provider,项目里只覆盖模型、上下文长度和实验参数。
示例
{
"provider": "primary-gateway",
"baseUrl": "https://your-provider.example/v1",
"apiKeyEnv": "AI_API_KEY",
"model": "your-default-model",
"temperature": 0.2,
"maxTokens": 16000
}
首次进入项目时,先让它读取目录结构并生成一份概览;随后再发具体任务,例如“补测试”“重写 README”“解释部署脚本”。这种流程比一上来直接改代码更稳。
如果你的项目需要不同模型完成不同任务,建议把它们分别配置成“说明型”“编码型”“长上下文型”三个档位。
优先采用项目配置,只覆盖当前仓库确实需要的字段;其余内容继续继承全局默认值。
很多兼容层并不完全复用原始模型名。切换 Provider 时,先确认它支持的模型映射,再更新配置。
代理式工作流文档
Codex 适合把工程任务拆成“理解需求、制定计划、执行改动、验证结果”四个阶段来推进,尤其适合在终端里处理多文件任务。
你可以把 Codex 看成“会计划的终端助手”。它通常不会只给一段代码,而是会先理解任务,再决定下一步要读哪些文件、改哪些内容、运行哪些验证。
Codex 一般通过终端分发,安装后建议马上确认版本号、帮助信息和工作目录权限是否正常。若你的环境有公司代理或自建入口,先把网络路径确认好。
若你使用的是 Node 发行版、独立二进制或团队封装版本,实际安装命令会不同;以你所选分发方式为准即可。
Codex 侧最常见的配置是密钥、Base URL、默认模型、沙箱策略和审批模式。团队场景下,建议把“是否允许写文件、是否允许执行命令”这些策略提前约定。
环境变量
OPENAI_API_KEY=replace-with-your-key
OPENAI_BASE_URL=https://your-provider.example/v1
OPENAI_MODEL=your-default-model
CODEX_APPROVAL_MODE=on-request
一个很稳定的模式是:先让它只读理解,再让它给出修改方案,最后才进入实际写文件或运行验证。
终端入口
codex --help
codex --version
# 进入交互后,可以用自然语言描述任务:
# 先解释这个仓库的构建流程
# 先出计划,再改登录页
# 补两条和支付模块相关的测试
受控工作区文档
OpenClaw 更适合强调工作区边界、审批流程和上下文控制的使用方式。对于需要严格约束修改范围的团队,它会比较好管理。
如果你担心 AI 在仓库里“看太多、改太多、跑太多”,OpenClaw 这类工具的价值就在于能把范围、权限、提示与执行策略收拢到一个更清楚的工作区里。
常见做法包括安装 CLI、下载独立二进制,或使用团队打包好的版本。安装完成后,先确认工具能在终端中被识别,再进入工作区初始化。
初始化的目标是告诉工具:它应该在哪个目录工作、默认读写权限是什么、是否需要审批、以及优先连接哪一个模型入口。
示意流程
# 以你所用发行版支持的命令为准
openclaw init
openclaw doctor
# 初始化后先确认:
# 1) 当前工作区是否正确
# 2) 模型配置是否可用
# 3) 审批和沙箱策略是否符合预期
建议把配置分为两层:一层负责连接模型,一层负责限定行为。前者包含密钥、Base URL 和模型名;后者包含工作区根目录、审批模式和文件写入策略。
示例
{
"workspaceRoot": "./",
"approvalMode": "on-request",
"sandbox": "workspace-write",
"provider": {
"baseUrl": "https://your-provider.example/v1",
"apiKeyEnv": "AI_API_KEY",
"model": "your-default-model"
}
}
桌面聚合型文档
Cherry Studio 适合把不同模型与不同工作流集中到一个桌面端界面里管理,尤其适合需要在“聊天、知识库、提示词、文件会话”之间切换的人。
与终端型工具不同,Cherry Studio 更像一个多模型工作台。你可以在同一界面里切换服务商、保存常用提示、建立资料集合,并把不同任务分配给不同模型。
桌面端安装通常最简单:下载对应系统版本、完成安装、首次启动后进入设置页。建议第一步就把自动更新与数据存储位置确认好。
建议按服务商逐个添加,而不是一次导入一大堆模型。先把一个入口配置通,再复制出其他模型预设,这样最容易定位问题。
配置思路
{
"name": "Coding Gateway",
"baseUrl": "https://your-provider.example/v1",
"apiKey": "replace-with-your-key",
"defaultModel": "your-default-model",
"tags": ["coding", "shared"]
}
统一 FAQ
下面这些问题并不属于某一个工具,而是几乎所有 AI 编程接入场景都会遇到的共性问题。
先检查上下文是否干净、模型是否匹配任务、提示是否给出了边界。多数“效果差”并不是接口坏了,而是上下文和目标没对齐。
通常是密钥失效、权限不足、Base URL 填错,或模型本身没有开通。先用最小请求验证,再回到工具内逐层排查。
把可公开的部分做成模板文件,把密钥放进环境变量、系统凭据库或团队机密管理工具,不要提交真实 key。
把需求拆小、限制目录范围、要求先给计划,并在提示里写明“每次只完成一步、完成后停下等待确认”。