
我在做一个客户端应用,客户端需要调用大模型能力,但显然不能在客户端直接暴露模型 API Key ,因此必须通过一个中间层来完成请求转发、鉴权和控制使用。我理解从架构上完全可以自己实现,但实际拆下来涉及用户身份、请求转发、限流、用量统计、Key 管理等,感觉成本和复杂度都不低。
我想确认的是:这类“客户端安全调用模型”的场景,是否已经有比较成熟的 SDK 、托管服务或通用方案可以直接使用? 理想状态是:我不需要从零搭一整套后端,只需要做很薄的一层配置或少量 glue code ,就能实现隐藏真实模型 Key 、按用户/设备限制使用、统计用量,甚至支持后续计费。
如果自己实现是不可避免的,那有没有被广泛采用的 “最快可落地”的部署方式或最小架构?比如开箱即用的网关、代理或参考实现,而不是从鉴权、存储、并发控制全部手写。希望听听老哥老姐们类似场景下的实际经验和推荐。
1 maocat 8 小时 50 分钟前 via Android oneapi newapi |
2 ikooma 8 小时 47 分钟前 oneapi ,docker 部署一个,有自带的账号和权限管理功能 其实这个问题问问 ai 就会给你推荐 |
5 TArysiyehua 8 小时 16 分钟前 直接弄两套 key 呀,测试环境一套,线上一套,你打包是本地电脑打包的? |
6 Solix 8 小时 11 分钟前 不应该是后端接 API ,然后后端暴露你们自己的接口给前端吗,哪有大模型直接接前端的,我只在纯客户端产品里足迹填 API 见过 |
8 Cruzz 8 小时 4 分钟前 我们自己做,当然我们的产品也不是单纯的前端直接调用模型能力, |
9 unco020511 7 小时 57 分钟前 vercel ai 网关,符合你的要求,其实上面说的 oneapi newapi 大致也是做这个事的 |
11 iOCZS 7 小时 32 分钟前 代理 |
12 furlxy 7 小时 25 分钟前 客户端调自己服务器用自己的 token ,服务器调模型 api 是另一个 token 前面那套要自己做,确实有不少考虑的,负载、限流防刷啥的 |