管理控制台

请输入管理员密码

Antigravity API 管理控制台

Antigravity API 转 OpenAI 格式的代理服务

🚀

服务状态

运行中
System Online
🎫

Token 账号

0
启用: 0 · 禁用: 0
🔑

API 密钥

0
总请求: 0
📊

今日请求

0
API Calls Today
💻

系统性能

实时监控数据

CPU 使用率 -
内存使用 -
运行时长 -
📈

Token 轮询

负载均衡状态

总 Token 数 0
当前位置 #0
轮询请求 0

服务器状态

空闲模式管理

当前状态 活跃
空闲时间 0 秒
总请求数 0

⚡ 快速操作

📝 快速开始指南

1
获取 Token

在 Token 管理页面通过 Google OAuth 登录获取访问令牌

2
生成密钥

在密钥管理页面创建 API 密钥用于应用程序访问

3
测试接口

使用 API 测试工具验证服务是否正常工作

🌐 API 端点信息

GET
/v1/models
获取模型列表
POST
/v1/chat/completions
聊天补全接口
GET
/admin/status
系统状态监控
基础 URL: -

Google OAuth 登录

点击下方按钮启动 Google OAuth 登录流程,获取访问 Token。

手动添加 Token(回调链接)

如果自动回调失败,可以将浏览器地址栏中的完整回调链接粘贴到下方。

手动添加 Token(直接输入)

直接粘贴您的 Google OAuth Token 信息。如果您已经通过其他方式获取了 Token,可以在此处手动添加。

必填项:访问令牌
可选项:刷新令牌(用于自动续期)
Token 有效期,默认 3600 秒(1小时)

已有 Token 账号

加载中...

生成新密钥

已有密钥

  • 暂无密钥

创建新公告

支持 JPG, PNG, GIF, WEBP 等格式,每张图片最大 10MB

所有公告

暂无公告

总用户数

0

活跃用户

0

共享Token数

0

今日调用

0

用户列表

加载中...

总审核次数

0

总封禁数

0

总标记数

0

平均耗时

0

🤖 AI 自动审核配置

0.8

📋 最新审核记录

加载中...
💡
使用提示

如果模型列表加载失败,请先在 Token 管理 页面添加 Google Token。 系统会自动使用可用的 Token 来获取模型列表。

聊天测试

🌐 API 端点概览

基础 URL
http://localhost:8045

本服务提供与 OpenAI API 兼容的接口,可无缝对接任何支持 OpenAI 格式的应用程序。

📋 GET /v1/models

功能:获取所有可用的AI模型列表

认证:需要 Bearer Token

请求示例:
curl http://localhost:8045/v1/models \ -H "Authorization: Bearer YOUR_API_KEY"
响应示例:
{ "object": "list", "data": [ { "id": "gemini-2.0-flash-exp", "object": "model", "created": 1234567890, "owned_by": "google" }, { "id": "gemini-exp-1206", "object": "model", "created": 1234567890, "owned_by": "google" } ] }

💬 POST /v1/chat/completions

功能:创建聊天对话补全,支持流式和非流式响应

认证:需要 Bearer Token

内容类型:application/json

流式请求示例(推荐):
curl http://localhost:8045/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gemini-2.0-flash-exp", "messages": [ {"role": "system", "content": "你是一个有帮助的AI助手"}, {"role": "user", "content": "介绍一下你自己"} ], "stream": true, "temperature": 1.0, "max_tokens": 8096 }'
非流式请求示例:
curl http://localhost:8045/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{ "model": "gemini-exp-1206", "messages": [ {"role": "user", "content": "什么是人工智能?"} ], "stream": false }'
流式响应格式:
data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":xxx,"model":"gemini-2.0-flash-exp","choices":[{"index":0,"delta":{"content":"你好"},"finish_reason":null}]} data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":xxx,"model":"gemini-2.0-flash-exp","choices":[{"index":0,"delta":{"content":"!"},"finish_reason":null}]} data: {"id":"chatcmpl-xxx","object":"chat.completion.chunk","created":xxx,"model":"gemini-2.0-flash-exp","choices":[{"index":0,"delta":{},"finish_reason":"stop"}]} data: [DONE]
非流式响应格式:
{ "id": "chatcmpl-1234567890", "object": "chat.completion", "created": 1234567890, "model": "gemini-2.0-flash-exp", "choices": [ { "index": 0, "message": { "role": "assistant", "content": "你好!我是一个AI助手..." }, "finish_reason": "stop" } ] }

📝 请求参数详解

参数名 类型 必需 说明
model string ✓ 是 要使用的模型ID,如 "gemini-2.0-flash-exp"
messages array ✓ 是 对话消息数组,每条消息包含 role(system/user/assistant)和 content
stream boolean 是否使用流式输出,默认 true。流式输出可实时显示生成内容
temperature number 采样温度,范围 0-2,默认 1.0。越高越随机,越低越确定
max_tokens integer 生成的最大token数量,默认 8096
top_p number 核采样参数,范围 0-1,默认 0.85。与 temperature 二选一使用
top_k integer Top-K采样参数,默认 50。限制每步只考虑概率最高的K个token

🔐 认证方式

所有API请求都需要在请求头中包含有效的API密钥:

Authorization: Bearer YOUR_API_KEY
⚠️ 注意:
  • 请妥善保管您的API密钥,不要在公开场合泄露
  • 可在"密钥管理"页面生成和管理API密钥
  • 支持为不同密钥设置独立的频率限制

⚡ 频率限制

当请求超过频率限制时,API会返回429状态码:

{ "error": { "message": "请求频率超限", "type": "rate_limit_exceeded" } }

响应头会包含以下信息:

  • X-RateLimit-Limit: 时间窗口内允许的最大请求数
  • X-RateLimit-Remaining: 剩余可用请求数
  • X-RateLimit-Reset: 限制重置前的等待秒数

💡 使用建议

  • 使用流式输出:对于长对话,建议使用 stream: true 以获得更好的用户体验
  • 温度参数调节:创意写作可使用较高温度(1.2-1.5),事实性回答使用较低温度(0.3-0.7)
  • 合理设置max_tokens:根据实际需求设置,避免不必要的token消耗
  • 错误处理:建议实现重试机制,处理网络超时和临时错误
  • 日志记录:在"日志查看"页面可查看所有API请求记录

🔗 常见集成方式

Python (OpenAI SDK)

from openai import OpenAI client = OpenAI( api_key="YOUR_API_KEY", base_url="http://localhost:8045/v1" ) response = client.chat.completions.create( model="gemini-2.0-flash-exp", messages=[ {"role": "user", "content": "你好"} ], stream=True ) for chunk in response: print(chunk.choices[0].delta.content or "", end="")

JavaScript (Fetch API)

const response = await fetch('http://localhost:8045/v1/chat/completions', { method: 'POST', headers: { 'Content-Type': 'application/json', 'Authorization': 'Bearer YOUR_API_KEY' }, body: JSON.stringify({ model: 'gemini-2.0-flash-exp', messages: [{ role: 'user', content: '你好' }], stream: true }) }); const reader = response.body.getReader(); const decoder = new TextDecoder(); while (true) { const { done, value } = await reader.read(); if (done) break; const text = decoder.decode(value); console.log(text); }

Node.js (OpenAI SDK)

import OpenAI from 'openai'; const client = new OpenAI({ apiKey: 'YOUR_API_KEY', baseURL: 'http://localhost:8045/v1' }); const stream = await client.chat.completions.create({ model: 'gemini-2.0-flash-exp', messages: [{ role: 'user', content: '你好' }], stream: true }); for await (const chunk of stream) { process.stdout.write(chunk.choices[0]?.delta?.content || ''); }

实时日志

加载中...

CPU 使用率

-

内存使用

-

运行时间

-

总请求数

-

服务器状态

-
空闲时间: 0

Token 轮询使用统计

加载中...

系统信息

加载中...

服务器配置

安全配置

此密钥不受频率限制约束

模型默认参数

系统指令

Google OAuth 配置

用于获取 Google Token,前端和 OAuth 登录服务共用此配置