如果你既想低成本调用 OpenAI / Anthropic / HuggingFace 等 API,又不想被厂商锁定或担心密钥泄露,这个仓库帮你用 Cloudflare Workers 搭建一个轻量 AI 网关。适合独立开发者、极客以及希望在教学或演示中快速集成多种大模型接口的爱好者。
核心看点
在 Workers 上部署后,你只需一个统一 URL 就能路由到不同模型后端,自动处理 API 密钥、速率限制与错误重试。支持流式输出(SSE),前后端可共用同一套鉴权逻辑,还能利用 Cloudflare 的全球边缘网络降低延迟。代码基于 MIT 许可证,逻辑清晰,方便二次定制。

上手提示
无需 GPU,只需一个 Cloudflare 账号(免费套餐即可)和对应模型厂商的 API Key。部署流程依赖 Wrangler CLI,仓库 README 给出了详尽的 wrangler.toml 配置示例,十分钟内可跑通。适合已有 API Key 但想统一管理调用入口的团队或个人。
别满足于只读 README——你可以 fork 后加入自己的模型路由逻辑,甚至用 KV 存储实现用量统计。更多玩法藏在 ChatGPT-on-Cloudflare 的 Issues 和 Discussions 里。

