
大概 10 秒的延迟吧。请问正常吗?我是付费用户。 有没有方法让 OpenAI 更加快速的响应。
1 seakey001 2023-04-23 10:38:37 +08:00 |
2 quzard 2023-04-23 10:39:36 +08:00 因为没绑卡 |
3 caohuihe31 OP @quzard 绑了卡,还特意设置到上限 500 美元。(默认 120 美元) |
4 caohuihe31 OP @seakey001 你这个直接调用的 3.5(turbo)接口是的吧,看起来很快。请教下你服务器部署在什么地方的?我的确实很慢,比你这个慢多了 |
5 mmdsun 2023-04-23 12:54:38 +08:00 via iPhone 在美国小服务器,速度很快,接口用了 steam 流参数,走 SSE |
6 lxiian 2023-04-23 13:38:33 +08:00 via iPhone 公众号,怕不是直接用 post 请求的。stream 响应才会快,不用 stream 的话,要等回答完毕才返回数据 |
7 qiayue PRO https://github.com/qiayue/php-openai-gpt-stream-chat-api-webui/ 用流式请求,并且在第一句返回时,先发给用户,剩下的等全文返回再发给用户。 这样就给用户一个预期,知道你已经在回答中了。 |
8 caohuihe31 OP @mmdsun 感谢分享。不过我的是直接放在公众号里面,使用微信的聊天界面,可能不合适使用 stream. |
9 caohuihe31 OP @lxiian 是的。难怪比别人慢 |