码豆api中转 · 全模型覆盖 · 官方直连

汇聚全球
最强大模型 API

一个接口,对接 码豆全部高级模型。
支持 Codex / Cursor / Windsurf / Cline 等主流 AI 编程工具。

精选高级模型

-- / -- 个模型
筛选:

快速接入

只需配置两个环境变量,所有主流 AI 编程工具即可接入

通用方式(推荐)
适用于 Codex / Cursor / Windsurf / Cline / Roo Code 等
http://你的服务器IP:8088/v1
sk-or-v1-xxxxxxxxxxxxxxxxxxxxxxxxxxxx

在对应的 AI 工具设置中,找到 API ProviderOpenAI Compatible 选项,填入 API 地址和 Key 即可。

⌨️
Codex CLI
OpenAI 官方命令行编程助手
export OPENAI_API_BASE=http://你的服务器IP:8088/v1
export OPENAI_API_KEY=sk-or-v1-xxxxxxxx

将配置写入 ~/.bashrc~/.zshrc 实现永久生效。

💻
Cursor 设置
Cursor AI 代码编辑器
OpenAI Compatible
http://你的服务器IP:8088/v1
sk-or-v1-xxxxxxxxxxxxxxxx

打开 Cursor → Settings (⌘+L)Models → 选择 OpenAI Compatible,填入地址即可。

🔌
Cline / Roo Code
VS Code AI 编程插件
OpenAI
http://你的服务器IP:8088/v1
sk-or-v1-xxxxxxxxxxxxxxxx
🎯
模型选择参考
根据不同场景选择最适合的模型
场景 推荐模型 说明 价格档位
通用编码 / 日常开发 gpt-5.1 / claude-sonnet-4.6 平衡性能与成本的最佳选择 中档
复杂项目 / 大型重构 gpt-5.3-codex / claude-opus-4.6 SWE-Bench 领先,深度理解能力强 高档
长上下文任务 / 大型代码库 gpt-5.1-codex-max / claude-opus-4.6 1M 上下文支持,超级代码库分析 高档
快速补全 / 轻量任务 claude-haiku-4.5 / gemini-3.1-flash-lite-preview 极速响应,超低成本 低档
深度推理 / 数学问题 o3 / o4-mini 推理专用,复杂问题精确解答 中高档
最强开源 / 本地部署 gemma-4-31b-it / gemma-4-26b-a4b-it Apache 2.0 开源,Arena 前茅,性价比极高 低档
中文 / 国产优先 qwen3.6-plus / deepseek-v3 中文理解优秀,性价比极高 低档
Agent 智能体 / 自动化 claude-opus-4.6 / gemini-3.1-pro-preview 工具调用强,长任务稳定性好 高档

Token 消耗计算器

输入 token 数量,实时计算各模型花费

参数设置

官方输入费用 -
官方输出费用 -
总价 -

常见用量参考

1K tokens (1000) -
10K tokens (10000) -
100K tokens (100000) -
1M tokens (1000000) -

💡 参考说明:一次典型对话约消耗 500-2000 输入 token + 200-800 输出 token, 100次对话约需 10万-30万 tokens。