兼容 OpenAI 格式的国产大模型网关

一个 API,接入 DeepSeek、GLM 和通义千问

用一个 `base_url` 和一个 `sk-relay` Key 接入国产大模型。支持自动路由、失败切换、流式响应和用量计费。

8
可用模型
8
启用渠道
0
健康渠道
/v1/chat/completions
智能路由
1deepseek-v4-pro
主推
未检测
2deepseek-v4-flash
未检测
3qwen-plus
未检测
4qwen3.6-plus
未检测
5qwen3.6-max-preview
未检测
6glm-5.1
未检测
7MiniMax-M2.7
未检测
8kimi-k2.6
未检测
请求
{
  "model": "deepseek-v4-pro",
  "stream": true,
  "messages": [...]
}
响应
data: [DONE]

可用模型

统一模型名、倍率和健康状态,客户端只需要传 `model`。

8 个启用渠道

DeepSeek-V4-Pro (百炼)

主推模型

qwen

未检测
deepseek-v4-pro
输入 (元/1K)
0.0020
输出 (元/1K)
0.0080
状态
启用

DeepSeek V4

deepseek

未检测
deepseek-v4-flash
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
状态
启用

通义千问 Qwen-Plus

qwen

未检测
qwen-plus
输入 (元/1K)
0.0008
输出 (元/1K)
0.0020
状态
启用

通义千问 Qwen3.6-Plus

qwen

未检测
qwen3.6-plus
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
状态
启用

通义千问 Qwen3.6-Max-Preview

qwen

未检测
qwen3.6-max-preview
输入 (元/1K)
0.0020
输出 (元/1K)
0.0060
状态
启用

智谱 GLM-5.1 (百炼)

qwen

未检测
glm-5.1
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
状态
启用

MiniMax-M2.7 (百炼)

qwen

未检测
MiniMax-M2.7
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
状态
启用

Kimi-K2.6 (百炼)

qwen

未检测
kimi-k2.6
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
状态
启用

清晰可控的中转计费

费用按 `输入tokens/1K * 输入单价 + 输出tokens/1K * 输出单价` 记录到每个 relay key。后台可设置余额上限,超额自动拒绝请求。

DeepSeek-V4-Pro (百炼)
主推
deepseek-v4-pro
输入 (元/1K)
0.0020
输出 (元/1K)
0.0080
DeepSeek V4
deepseek-v4-flash
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
通义千问 Qwen-Plus
qwen-plus
输入 (元/1K)
0.0008
输出 (元/1K)
0.0020
通义千问 Qwen3.6-Plus
qwen3.6-plus
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
通义千问 Qwen3.6-Max-Preview
qwen3.6-max-preview
输入 (元/1K)
0.0020
输出 (元/1K)
0.0060
智谱 GLM-5.1 (百炼)
glm-5.1
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
MiniMax-M2.7 (百炼)
MiniMax-M2.7
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040
Kimi-K2.6 (百炼)
kimi-k2.6
输入 (元/1K)
0.0010
输出 (元/1K)
0.0040

快速接入

兼容 OpenAI Chat Completions,迁移时只改 `baseURL` 和 `apiKey`。

https://maxapi.code-guide.vip/v1

OpenAI SDK

Node.js 服务端示例,只需要替换 Key。

import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://maxapi.code-guide.vip/v1",
  apiKey: process.env.MAX_API_KEY,
});

const completion = await client.chat.completions.create({
  model: "deepseek-v4-pro",
  messages: [{ role: "user", content: "写一个产品发布计划" }],
});

cURL

用于快速验证 Key、模型和流式响应。

curl https://maxapi.code-guide.vip/v1/chat/completions \
  -H "Authorization: Bearer sk-relay-xxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [{"role": "user", "content": "你好"}],
    "stream": true
  }'

接入客户端 / 开发工具

Claude Code 和 Cursor 的配置都可以直接复制使用。

Claude Code

Anthropic 推出的命令行 AI 编程助手。这里接入咱们自己的 max-api Anthropic Messages 兼容入口。

1安装 Claude Code
2跳过 Anthropic 官方登录验证
3写入咱们的 max-api 接入配置
4新开终端运行 claude "你好" 验证
安装

macOS 先安装或更新 Node.js v18.0+;Windows 需要 WSL 或 Git for Windows,然后在 WSL / Git Bash 中安装。

npm install -g @anthropic-ai/claude-code
claude --version
跳过登录验证

编辑或新增 ~/.claude.json;Windows 路径为 C:\\Users\\<用户名>\\.claude.json。

{
  "hasCompletedOnboarding": true
}
配置接入凭证

创建 ~/.claude/settings.json;Windows 路径为 C:\Users\<用户名>\.claude\settings.json。API Key 填咱们后台生成的 sk-relay Key,Base URL 填咱们的 Anthropic 兼容地址。

max-api 配置

SDK base_url: https://maxapi.code-guide.vip/apps/anthropic;HTTP 请求地址: https://maxapi.code-guide.vip/apps/anthropic/v1/messages。

{
  "env": {
    "ANTHROPIC_AUTH_TOKEN": "sk-relay-xxx",
    "ANTHROPIC_BASE_URL": "https://maxapi.code-guide.vip/apps/anthropic",
    "ANTHROPIC_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro",
    "CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-pro"
  }
}
CC Switch

可用 CC Switch 管理多个 max-api Key。供应商名称填 max-api,API Key 填 sk-relay Key,请求地址填 https://maxapi.code-guide.vip/apps/anthropic,高级选项里的主模型、Haiku、Sonnet、Opus 都可先填 deepseek-v4-pro

桌面版与 IDE 插件

Claude Code 桌面版可在 Developer 模式中配置 Third-Party Inference Gateway;VS Code 和 JetBrains 安装 Claude Code 插件后,会复用 CLI 的 settings.json 配置。

常见问题

如果出现 Unable to connect to Anthropic services,先在 /status 检查 ANTHROPIC_BASE_URL 和 ANTHROPIC_AUTH_TOKEN,再确认 hasCompletedOnboarding 为 true,并重新打开终端。

Cursor

AI 编程 IDE。通过 OpenAI 兼容配置接入咱们的 max-api,中转后可使用已配置的阿里百炼、DeepSeek 等渠道。

1安装 Cursor
2打开 Cursor Settings -> Models
3开启 OpenAI API Key 和 Override OpenAI Base URL
4添加 deepseek-v4-pro 自定义模型并关闭 Auto 选择
安装 Cursor

从 Cursor 官网下载安装客户端。

https://cursor.com/features
配置接入凭证

在 Cursor Settings -> Models 中开启 OpenAI API Key 和 Override OpenAI Base URL。

OpenAI API Key
sk-relay-xxx

Override OpenAI Base URL
https://maxapi.code-guide.vip/v1

Add Custom Model
deepseek-v4-pro

Chat Model
deepseek-v4-pro
可用模型

建议先添加 deepseek-v4-pro;也可以添加 deepseek-v4-flash、qwen-plus 或 auto。模型请求会走 max-api 统一路由、计费和调用日志。

常见问题

Cursor 免费版仅支持 Auto 模式,不支持调用自定义模型;需要 Cursor Pro 及以上套餐。配置完成后如果找不到模型,请在聊天面板关闭 Auto,再从模型下拉栏选择 deepseek-v4-pro

连接失败排查

如果出现 We're having trouble connecting to the model provider 或 Unauthorized User API key,请检查 sk-relay Key、Base URL 和模型名称。Base URL 必须填 https://maxapi.code-guide.vip/v1,这样才会走咱们的统一中转。

中转密钥

后台统一创建、禁用、删除,并为每个 Key 设置余额上限。

渠道健康检测

渠道检测会更新健康状态,请求失败会自动避开异常渠道。

调用与用量日志

每次请求记录 token、模型、渠道、费用、耗时和错误信息。