简介

AI API Hub 是一个兼容 OpenAI 接口协议的 AI 模型聚合代理。通过统一的 API 端点, 你可以访问来自 Anthropic、OpenAI、Google、DeepSeek 等多家供应商的模型, 无需分别申请各家的 API Key。

完全兼容

兼容 OpenAI SDK,零改动切换

自动故障转移

服务不稳定时自动切换备用节点

透明计费

按实际 Token 消耗计费,公开定价

快速上手

只需两步即可开始使用:创建 API Key,然后将请求指向我们的端点。

Python(推荐)

bash
pip install openai
python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.aiapiHub.com/v1",
    api_key="your-api-key",   # 在控制台创建
)

response = client.chat.completions.create(
    model="claude-sonnet-4-6",   # 或任意支持的模型 ID
    messages=[{"role": "user", "content": "你好!"}],
)

print(response.choices[0].message.content)

Node.js / TypeScript

typescript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://api.aiapiHub.com/v1",
  apiKey: "your-api-key",
});

const response = await client.chat.completions.create({
  model: "gpt-4o",
  messages: [{ role: "user", content: "你好!" }],
});

console.log(response.choices[0].message.content);

cURL

bash
curl https://api.aiapiHub.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your-api-key" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "user", "content": "你好!"}
    ]
  }'

认证鉴权

所有请求需在 HTTP Header 中携带 API Key。在控制台创建 Key 后,将其填入请求头:

bash
Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxx

请勿将 API Key 提交到公开代码仓库或暴露在前端代码中。 如有泄露,请立即在控制台吊销并重新生成。

Chat Completions

POST/v1/chat/completions

创建一个对话补全请求,兼容 OpenAI Chat Completions API。

请求参数

参数类型必填说明
modelstring模型 ID,如 claude-sonnet-4-6
messagesarray对话消息数组
streamboolean是否启用流式输出,默认 false
max_tokensinteger最大输出 Token 数
temperaturenumber采样温度,0.0 - 2.0
toolsarray函数调用工具定义

Models List

GET/v1/models

获取所有可用模型列表。

bash
curl https://api.aiapiHub.com/v1/models \
  -H "Authorization: Bearer your-api-key"

流式输出

设置 stream: true 启用 SSE 流式响应, 适合实时展示生成内容。

python
response = client.chat.completions.create(
    model="claude-sonnet-4-6",
    messages=[{"role": "user", "content": "写一首关于 AI 的诗"}],
    stream=True,
)

for chunk in response:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

函数调用

支持 OpenAI 格式的 Function Calling(Tool Use),可接入外部工具与数据源。

python
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_current_weather",
            "description": "获取指定城市的当前天气",
            "parameters": {
                "type": "object",
                "properties": {
                    "city": {
                        "type": "string",
                        "description": "城市名称,如 '北京'",
                    }
                },
                "required": ["city"],
            },
        },
    }
]

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
    tools=tools,
)

自动故障转移

当上游供应商出现错误或超时时,系统会自动切换到其他可用节点重试, 保障服务连续性。可在请求头中指定首选和备选模型:

bash
# 在请求体中指定备选模型列表(按优先级)
{
  "model": "claude-opus-4-6",
  "fallback_models": ["gpt-4o", "gemini-3-1-pro"],
  "messages": [...]
}

负载均衡

对于高并发场景,可启用负载均衡模式,将请求自动分发到多个后端节点, 有效降低延迟。在控制台的「渠道管理」中配置权重即可生效。

限流说明

默认限流策略如下:

账号等级RPM(请求/分钟)TPM(Token/分钟)
免费试用60100K
基础用户5001M
企业用户无限制无限制

超出限流后请求将返回 429 状态码,建议在客户端实现指数退避重试策略。 如需提升配额,请联系我们