AI API Hub 是一个兼容 OpenAI 接口协议的 AI 模型聚合代理。通过统一的 API 端点, 你可以访问来自 Anthropic、OpenAI、Google、DeepSeek 等多家供应商的模型, 无需分别申请各家的 API Key。
完全兼容
兼容 OpenAI SDK,零改动切换
自动故障转移
服务不稳定时自动切换备用节点
透明计费
按实际 Token 消耗计费,公开定价
只需两步即可开始使用:创建 API Key,然后将请求指向我们的端点。
pip install openaifrom openai import OpenAI
client = OpenAI(
base_url="https://api.aiapiHub.com/v1",
api_key="your-api-key", # 在控制台创建
)
response = client.chat.completions.create(
model="claude-sonnet-4-6", # 或任意支持的模型 ID
messages=[{"role": "user", "content": "你好!"}],
)
print(response.choices[0].message.content)import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.aiapiHub.com/v1",
apiKey: "your-api-key",
});
const response = await client.chat.completions.create({
model: "gpt-4o",
messages: [{ role: "user", content: "你好!" }],
});
console.log(response.choices[0].message.content);curl https://api.aiapiHub.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-api-key" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "user", "content": "你好!"}
]
}'所有请求需在 HTTP Header 中携带 API Key。在控制台创建 Key 后,将其填入请求头:
Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxxxx请勿将 API Key 提交到公开代码仓库或暴露在前端代码中。 如有泄露,请立即在控制台吊销并重新生成。
/v1/chat/completions创建一个对话补全请求,兼容 OpenAI Chat Completions API。
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
model | string | 是 | 模型 ID,如 claude-sonnet-4-6 |
messages | array | 是 | 对话消息数组 |
stream | boolean | 否 | 是否启用流式输出,默认 false |
max_tokens | integer | 否 | 最大输出 Token 数 |
temperature | number | 否 | 采样温度,0.0 - 2.0 |
tools | array | 否 | 函数调用工具定义 |
/v1/models获取所有可用模型列表。
curl https://api.aiapiHub.com/v1/models \
-H "Authorization: Bearer your-api-key"设置 stream: true 启用 SSE 流式响应, 适合实时展示生成内容。
response = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "写一首关于 AI 的诗"}],
stream=True,
)
for chunk in response:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)支持 OpenAI 格式的 Function Calling(Tool Use),可接入外部工具与数据源。
tools = [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "获取指定城市的当前天气",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称,如 '北京'",
}
},
"required": ["city"],
},
},
}
]
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools,
)当上游供应商出现错误或超时时,系统会自动切换到其他可用节点重试, 保障服务连续性。可在请求头中指定首选和备选模型:
# 在请求体中指定备选模型列表(按优先级)
{
"model": "claude-opus-4-6",
"fallback_models": ["gpt-4o", "gemini-3-1-pro"],
"messages": [...]
}对于高并发场景,可启用负载均衡模式,将请求自动分发到多个后端节点, 有效降低延迟。在控制台的「渠道管理」中配置权重即可生效。
默认限流策略如下:
| 账号等级 | RPM(请求/分钟) | TPM(Token/分钟) |
|---|---|---|
| 免费试用 | 60 | 100K |
| 基础用户 | 500 | 1M |
| 企业用户 | 无限制 | 无限制 |
超出限流后请求将返回 429 状态码,建议在客户端实现指数退避重试策略。 如需提升配额,请联系我们。