这是一个基于 FastAPI 构建的 Gemini API 代理,旨在提供一个简单、安全且可配置的方式来访问 Google 的 Gemini 模型。适用于在 Hugging Face Spaces 上部署,并支持openai api格式的工具集成。
- 您必须给出适当的署名,提供指向本协议的链接,并指明是否(对原作)作了修改。您可以以任何合理方式进行,但不得以任何方式暗示许可方认可您或您的使用。
- 您不得将本作品用于商业目的,包括但不限于任何形式的商业倒卖、SaaS、API 付费接口、二次销售、打包出售、收费分发或其他直接或间接盈利行为。
感谢@warming-afternoon,@任梓樂在技术上的大力支持
遇到问题请先查看以下的 错误自查 文档,确保已尝试按照其上的指示进行了相应的排查与处理。
- Claw Cloud部署的使用文档(推荐,免费,手机电脑均可使用) 感谢@IDeposit编写
- huggingface 部署的使用文档(手机电脑均可使用)
- docker部署的使用文档(服务器自建使用) 感谢@北极星星编写
- termux部署的使用文档(手机使用) 感谢@天命不又编写
- zeabur部署的使用文档(需付费) 感谢墨舞ink编写
- vertex模式的使用文档
-
v0.1.6
- 为并发模式提供缓存,并发中除了返回的成功请求,其他成功请求将被缓存,若下次请求与本次请求一致,将首先使用缓存内容
- 为请求添加硬限制,超过每日限定次数的key将不再发送请求,若所有key都达到次数限制,将随机选择一个key请求
- 添加空响应计数,单次请求空响应重试超过一定次数将直接跳出
- 修复联网模式bug(感谢yoolieer),现在能够正常的启用停用联网模式了
- 新增环境变量
MAX_EMPTY_RESPONSES
,为空响应重试次数,默认为5 - 修复若干bug
-
v0.1.5
- 实现vertex热切换,现在在前端面板就可以切换vertex模式与ai studio模式了
- 为vertex模式实现假流式,环境变量与ai studio模式的假流式相同,均为
FAKE_STREAMING
- 优化前端界面
- 修复若干bug
-
v0.1.4beta
- 为大部分配置项适配热更新,可实时调整配置
- 前端界面新增适配热更新相关ui界面,可直接调整配置(在前端界面修改的数据在重启后会失效)
- 适配 vertex ai(基于gzzhongqi/vertex2openai项目开发),在启用vertex模式并配置vertex凭证后,项目将切换为vertex请求模式
- 新增环境变量
ENABLE_VERTEX
用于启用vertex模式,初始默认为false - 新增环境变量
GOOGLE_CREDENTIALS_JSON
用于配置vertex凭证,默认为空
-
历史版本更新日志请查看update
- 提供
/v1/chat/completions
接口,支持流式(streaming)和非流式响应,与 OpenAI API 格式兼容。 - 自动将 OpenAI 格式的请求转换为 Gemini 格式。
- 通过
PASSWORD
环境变量设置密码。 - 提供默认密码
"123"
。
- 通过环境变量自定义限制:
MAX_REQUESTS_PER_MINUTE
:每分钟最大请求数(默认 30)。MAX_REQUESTS_PER_DAY_PER_IP
:每天每个 IP 最大请求数(默认 600)。
- 超过速率限制时返回 429 错误。
- 提供的接口与 OpenAI API 格式兼容,便于接入各种服务
- 强烈建议在生产环境中设置
PASSWORD
环境变量,并使用强密码。 - 根据你的使用情况调整速率限制相关的环境变量。
- 确保你的 Gemini API 密钥具有足够的配额。