跳到主要内容

API Key 代理层

为什么需要代理?

  • 员工不直接持有 API Key,防止泄露
  • 统一计量,按用户追踪消耗
  • 集中配置配额,超标自动限流
  • 一键切换模型,无需重新配置所有实例

技术选型:LiteLLM Proxy

LiteLLM 是开源的统一 LLM 代理,支持:

  • OpenAI / Gemini / Claude / Azure 等所有主流模型
  • 按 user/team 设置配额(Token 数)
  • 实时用量追踪 + Dashboard
  • 超标自动限流

部署架构

所有 OpenClaw 实例
└── API_BASE = https://proxy.sayclaw.ai
└── API_KEY = 虚拟 key(由 LiteLLM 管理)


LiteLLM Proxy(GCP Cloud Run)
│ 计量 + 配额检查

真实 API(OpenAI / Gemini 等)

配额配置示例

# litellm_config.yaml
model_list:
- model_name: gpt-5.2-pro
litellm_params:
model: openai/gpt-5.2-pro
api_key: sk-xxx

router_settings:
num_retries: 3

litellm_settings:
budget_manager:
budget_duration: 1d # 每日重置
max_budget: 0.1 # $0.1/天(默认)

# 按用户设置配额
user_budgets:
- user_id: [email protected]
max_budget: 0.5 # $0.5/天
- user_id: tech-team
max_budget: 5.0 # 团队 $5/天