Skip to content

CodeBuddy 第三方大模型 api 配置教程

如果你想在 CodeBuddy 里接入自己的模型入口,这篇 CodeBuddy 第三方大模型 api 配置教程 可以直接照着做。核心思路是:在本机创建 .codebuddy/models.json,写入 OpenAI-compatible 的模型 id、完整 urlapiKey、上下文长度和输出长度,然后重启或重新启动 CodeBuddy,让新模型进入可选列表。

先说结论:CodeBuddy 的第三方模型配置和 WorkBuddy 不一样。CodeBuddy 公开文档里明确写到,自定义模型配置文件叫 models.json,并支持用户级 ~/.codebuddy/models.json 和项目级 <project-root>/.codebuddy/models.json 两种位置;如果两个文件都存在,项目级配置优先。想接 Claude、GPT、Gemini 等第三方大模型,可以把入口统一放到 api.clawsocket.com,更多多工具接入教程可以继续看 ai-api-proxy.com

CodeBuddy 第三方大模型 api 配置教程封面图
CodeBuddy 第三方大模型 api 配置教程的关键,是把 models.json 的位置、url、apiKey、model id 和优先级关系写清楚。

快速结论

  • CodeBuddy 第三方大模型 api 配置教程 的核心文件是 models.json
  • 用户级配置路径是 ~/.codebuddy/models.json
  • 项目级配置路径是 <project-root>/.codebuddy/models.json
  • 项目级配置优先级高于用户级配置
  • CodeBuddy 自定义模型目前按 OpenAI 接口格式配置
  • url 要写完整接口,例如 https://api.clawsocket.com/v1/chat/completions
  • Windows 和 macOS 的配置内容一样,主要差异是用户目录路径写法不同

一、CodeBuddy 第三方大模型 api 的配置原理

CodeBuddy 的自定义模型不是在界面里随便填一个 Base URL,而是通过本地 JSON 文件声明模型。这个文件里通常包含两个核心部分:

  • models:定义模型列表,每个模型包含 idnameproviderurlapiKey 等字段
  • defaultModel 或可选模型信息:决定默认使用哪个模型

官方文档强调了一个重要限制:自定义模型目前需要使用 OpenAI API 格式。这意味着你接入的第三方大模型 API,最好是 OpenAI-compatible 的 /chat/completions 接口。ClawSocket 正好适合这种场景,因为它可以把多种模型统一收口到 https://api.clawsocket.com/v1/chat/completions

二、macOS 怎么配置 CodeBuddy 第三方大模型 api

macOS 用户可以使用用户级配置,适合所有项目共用一套模型入口:

bash
mkdir -p ~/.codebuddy
code ~/.codebuddy/models.json

如果没有 VS Code,可以用:

bash
nano ~/.codebuddy/models.json

如果你只想给某个项目单独配置模型,就进入项目根目录:

bash
cd your-project
mkdir -p .codebuddy
code .codebuddy/models.json

项目级配置适合团队项目,因为你可以把模型名称、上下文长度、默认模型策略写得更贴近当前代码库。但要注意,真实 API Key 不建议提交到 Git。团队场景里更稳的做法,是用单独的 Key 管理流程,或者至少把 .codebuddy/models.json 放进 .gitignore

三、Windows 怎么配置 CodeBuddy 第三方大模型 api

Windows 用户也可以使用同样的 JSON,只是路径要换成当前用户目录。打开 PowerShell,创建用户级配置目录:

powershell
New-Item -ItemType Directory -Force "$env:USERPROFILE\.codebuddy"
notepad "$env:USERPROFILE\.codebuddy\models.json"

如果你习惯 VS Code:

powershell
code "$env:USERPROFILE\.codebuddy\models.json"

项目级配置则进入项目根目录后执行:

powershell
New-Item -ItemType Directory -Force ".codebuddy"
notepad ".codebuddy\models.json"

Windows 上最常见的问题是文件名被保存成 models.json.txt。保存时建议打开文件扩展名显示,确认最终文件就是 models.json

CodeBuddy 第三方大模型 API 配置流程图
CodeBuddy 配置第三方大模型 API 时,建议先选用户级或项目级,再写 models.json,最后重启工具并发起真实请求验证。

四、用 ClawSocket 配置 CodeBuddy 的完整示例

下面这份 JSON 可以作为 CodeBuddy 第三方大模型 api 配置教程 的基础模板。把 apiKey 替换成你在 api.clawsocket.com 生成的 Key,再把 id 改成后台实际支持的模型名。

json
{
  "models": [
    {
      "id": "claude-sonnet-4-20250514",
      "name": "Claude Sonnet - ClawSocket",
      "provider": "openai",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "你的-ClawSocket-API-Key",
      "maxInputTokens": 200000,
      "maxOutputTokens": 8192
    }
  ],
  "defaultModel": "claude-sonnet-4-20250514"
}

这里有 4 个字段最重要:

字段作用建议
id实际发送给接口的模型名以 ClawSocket 后台可用模型为准
nameCodeBuddy 里显示的名称写清模型和入口,方便区分
provider接口格式OpenAI-compatible 通常写 openai
url请求地址写完整 /v1/chat/completions

如果你的 CodeBuddy 版本要求字段名写成 vendor 或其他形式,请以当前客户端实际文档和提示为准。但从公开配置说明看,第三方模型接入的关键仍然是 OpenAI-compatible URL、API Key 和模型 ID 三件事。

五、同时配置 Claude、GPT、Gemini

如果你想把 CodeBuddy 变成多模型工具,可以一次写多个模型:

json
{
  "models": [
    {
      "id": "claude-sonnet-4-20250514",
      "name": "Claude Sonnet - ClawSocket",
      "provider": "openai",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "你的-ClawSocket-API-Key",
      "maxInputTokens": 200000,
      "maxOutputTokens": 8192
    },
    {
      "id": "gpt-5.4",
      "name": "GPT-5.4 - ClawSocket",
      "provider": "openai",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "你的-ClawSocket-API-Key",
      "maxInputTokens": 128000,
      "maxOutputTokens": 8192
    },
    {
      "id": "gemini-2.5-pro",
      "name": "Gemini Pro - ClawSocket",
      "provider": "openai",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "你的-ClawSocket-API-Key",
      "maxInputTokens": 128000,
      "maxOutputTokens": 8192
    }
  ],
  "defaultModel": "claude-sonnet-4-20250514"
}

这类配置的价值在于统一。你不需要为每个模型单独研究一套 SDK,只要 ClawSocket 后台支持相应模型,CodeBuddy 侧就主要维护模型 id 和显示名称。

六、用户级和项目级怎么选

这部分是 CodeBuddy 和很多工具不一样的地方。CodeBuddy 第三方大模型 api 配置教程 里建议这样选:

配置方式路径适合场景注意点
用户级~/.codebuddy/models.json个人所有项目共用改一次影响所有项目
项目级<project-root>/.codebuddy/models.json某个项目单独指定模型优先级更高,可能覆盖用户级

如果你只是自己用,先写用户级最省事。如果你要给某个大型项目单独指定 Claude 或 GPT,写项目级更可控。但项目级配置如果包含真实 API Key,务必确认不会被提交到仓库。

七、配置后怎么验证

写完 models.json 后,按这个顺序检查:

  1. 确认 JSON 格式合法,没有多余逗号
  2. 确认 url 写到 /v1/chat/completions
  3. 确认 apiKey 没有复制空格或换行
  4. 确认 idapi.clawsocket.com 后台实际支持的模型名
  5. 重启 CodeBuddy 或重新启动相关 CLI
  6. 在 CodeBuddy 里切换到新模型,发送一条短请求

如果 CodeBuddy 报模型不存在,优先检查 id。如果报 401,优先检查 Key。 如果请求没有发出去,优先检查 url 是否完整。

八、安全和团队协作建议

如果只是个人测试,直接把 apiKey 写进 models.json 最快。但如果你是在团队项目里使用,CodeBuddy 第三方大模型 api 配置教程 里有两个安全细节必须提前处理。

第一,不要把带真实 Key 的 .codebuddy/models.json 提交到 Git。可以在项目 .gitignore 里加入:

text
.codebuddy/models.json

第二,如果团队确实需要共享配置,可以提交一个不带 Key 的模板文件,例如 .codebuddy/models.example.json,只保留 idnameproviderurl 和 token 长度,让每个成员自己填入 API Key。这样既能统一模型入口,又不会把密钥扩散到仓库里。

如果你使用 api.clawsocket.com,建议为 CodeBuddy 单独创建一把 Key。这样后续要做限额、撤销、审计或排查费用时,不会和 Cursor、Claude Code、WorkBuddy 的调用混在一起。

九、常见问题

1. CodeBuddy 第三方大模型 api 配置教程 里的 URL 必须写完整吗

建议写完整。ClawSocket 的 OpenAI-compatible 聊天接口建议写:

text
https://api.clawsocket.com/v1/chat/completions

只写域名或只写 /v1,很容易导致客户端不知道该请求哪个接口。

2. CodeBuddy 能直接接 Claude 吗

可以,但更稳的方式是通过 OpenAI-compatible 入口接入。通过 api.clawsocket.com,你可以把 Claude 模型放进 OpenAI 风格调用链路里。

3. Windows 和 macOS 的 JSON 内容一样吗

一样。不同的是路径和编辑命令。macOS 用 ~/.codebuddy/models.json,Windows 用 %USERPROFILE%\.codebuddy\models.json

4. 项目级配置为什么不生效

先确认你当前打开的就是这个项目目录,再确认 .codebuddy/models.json 在项目根目录。项目级配置通常优先级更高,但路径放错就不会被读取。

总结

这篇 CodeBuddy 第三方大模型 api 配置教程 的关键只有一条:在 Windows 或 macOS 的正确位置创建 .codebuddy/models.json,把第三方模型的 idproviderurlapiKey 写对,再重启 CodeBuddy 验证。

如果你要接 ClawSocket,最短路径就是:去 api.clawsocket.com 生成 Key,把 url 写成 https://api.clawsocket.com/v1/chat/completions,把模型名写进 id,然后根据需要选择用户级或项目级配置。后续你还可以在 ai-api-proxy.com 查看 Claude Code、Cursor、WorkBuddy 等工具的接入文章,把常用 AI 工具都收口到同一套第三方大模型 API。

参考资料

Last updated:

大模型 API中转站 for developers who need compatibility, routing and migration speed.