Buu 当前如何选择个人 AI Gateway
Decision(决策)
当前优先把 AxonHub 作为个人长期 AI Gateway 的主尝试方向。
但实际策略不是“一次性彻底切换”,而是:
先围绕云雾图片 / 视频这条真实需求验证 AxonHub,确认能承接后,再逐步替换 CCH。
Context(背景)
Buu 现在高频使用 Hermes,也已经长期在 VPS 上使用 CCH。
问题不在于“有没有网关”,而在于:
- 需要一个更长期、统一的个人 AI Gateway
- 需要兼顾文本、图片、视频等不同类型接口
- 需要处理国内中转站常见的分组、倍率、按次收费、稳定性波动
- 需要在同一个逻辑模型名下,把多个上游 provider 做成 fallback 链路
当前最着急的现实需求,是尽快通过云雾生成图片,而不是无限延长选型讨论。
Criteria(判断标准)
当前这轮网关选择,至少要满足:
- 能支持统一逻辑模型名,对客户端保持稳定请求方式
- 能把多个上游 provider 放在同一个逻辑模型后面做 fallback
- 能表达同一模型在不同 provider / group 下的差异
- 能承接云雾这类 Gemini 原生图片接口与视频接口
- 能适配国内中转站常见的分组与计费现实
- 不把 Buu 拖进长期空转的“选型地狱”
Facts(事实)
- Buu 当前的目标不是把 New API 当最终网关,而是把很多基于 New API 的上游站点接入自己的统一网关。
- Buu 的实际使用方式是:客户端始终请求同一个逻辑模型名,网关内部再决定真实上游模型名与提供商。
- CCH 当前已有可视化的决策链 / 决策列能力,能展示候选、优先级、健康过滤、fallback 过程。
- 云雾当前是重要现实场景,因为它在 Nano Banana 2 上有极强的真实成本优势,但稳定性和速率限制存在不确定性。
- AxonHub 已具备:图片、视频、Gemini API、OpenAI 风格视频接口、按次收费(flat_fee)等关键能力。
- LiteLLM 很强,但更偏通用代理;在“国内中转站分组 / 按次收费 / 现实计费表达”这件事上,不一定比 AxonHub 更贴合。
Interpretation(解释)
Buu 真正需要的不是“世界上最通用的网关”,而是“最贴自己现实用法的个人总网关”。
这里最关键的,不是抽象功能表,而是:
- 是否支持逻辑模型别名
- 是否支持多上游 fallback
- 是否能把便宜但不稳的上游放在前面,把更稳更贵的上游放在后面
- 是否能把国内 provider 常见的 group 差异表达清楚
从这个角度看,AxonHub 当前更接近 Buu 的真实需要。
Current Rule(当前规则)
- 客户端层优先使用稳定的逻辑模型名,而不是直接暴露上游真实模型名。
- 网关内部允许多个 provider 承接同一个逻辑模型,并通过优先级、健康状态、连接情况和 fallback 选择实际上游。
- 对同一个 provider 的同一个模型,优先按 group 区分,而不是把内部命名拆得过于复杂。
- 当前主尝试方向定为 AxonHub。
- 当前迁移方式定为“逐步迁移”,而不是一次性替换所有现有链路。
- 当前最优先验证的不是全文本能力,而是云雾图片 / 视频这条真实链路能否在 AxonHub 里跑通。
Exceptions(例外)
- 如果某个特殊上游接口在 AxonHub 中明显接不顺,而 LiteLLM 可以零摩擦接通,则可局部保留 LiteLLM 作为补充方案。
- 如果后续发现 AxonHub 在 fallback、group 表达或实际维护体验上明显不达标,这个决定需要重新评估。
- 如果未来要真正开放给多人使用,网关选择标准可能会从“个人适配性”转向“多用户管理能力”。
Review Trigger(复查触发条件)
出现以下情况时,应重新审视这条决策:
- 云雾图片 / 视频在 AxonHub 中实际无法稳定接通
- fallback 逻辑无法达到 Buu 预期
- group 维度的定价与路由表达明显别扭
- LiteLLM 或其他候选在真实场景验证中明显更顺
- Buu 的使用重点从个人统一网关,转向小规模多用户服务