
如题。 chatgpt 回复的时候那个打字框贼慢贼慢。长回答的时候看得都要急死了。 后台应该数据早就一次性就返回了。 有什么油猴脚本之类得能够加快回答得回复显示得速度吗?
1 zhoufenfens 2022-12-12 17:24:45 +08:00 它应该是保持着一个长连接吧,不是一次性返回然后逐字渲染。 |
2 bluedawn 2022-12-12 17:25:25 +08:00 via iPhone 似乎是这两天才这样的,原因不知道,可以试试 GitHub 大佬做的相关项目 |
3 podel OP 没错。采用得是长 POST 回复信息得。 而不是一次性回复信息。 所以必须保持 长得稳定得连接才行。没办法加快 |
4 lookStupiToForce 2022-12-12 17:26:14 +08:00 应该不是“后台应该数据早就一次性就返回了” 有些回答会中断停留很长时间,有时候甚至会直接回答一半直接挂掉 |
5 mxT52CRuqR6o5 2022-12-12 17:36:24 +08:00 @lookStupiToForce 我也觉得 chatgpt 的一个字一个字蹦出来的设计是受限于模型设计的,OP 认为『后台应该数据早就一次性就返回了』有点太想当然了 |
6 podel OP @mxT52CRuqR6o5 就算不行也应该 先把数据准备好。 然后一次性返回。 长 POST 真的太难稳定了。 |
7 Garalt 2022-12-12 17:55:21 +08:00 用英语比中文快,个人体验 |
8 me221 2022-12-12 19:40:47 +08:00 有没有可能是你国不稳定 |
9 systemcall 2022-12-12 22:22:42 +08:00 VPN 太烂了吧,换个好点的就会快不少 |
10 x52S60GIsMZHtJPN 2022-12-12 23:14:29 +08:00 via iPhone @me221 不是,我在海外这几天照样很慢,还容易跳 network error ,前几天没这样 |
11 zhuweiyou 2022-12-13 00:01:03 +08:00 长连接持续返回的,并不是一次返回 |
12 Shosuke 2022-12-13 00:17:12 +08:00 via iPhone 它好像最近的人类道德观念非常强烈 |
13 netabare 2022-12-13 01:22:19 +08:00 一个字一个字返回这个应该是最近增加的 throttling ,之前是一段一段话返回的,估计没有任何办法加快。 |
14 rpman 2022-12-13 02:34:25 +08:00 via iPhone 这种序列 decoding 模型 streaming 其实是一种优化 因为完整解码就要这么多时间。他只是把中间结果也展示了。 |
15 needpp 2022-12-13 08:03:00 +08:00  顺带问一下,我想知道这种分段的数据前端怎么接收的? |
16 summer2019 2022-12-13 08:12:59 +08:00 via iPhone @needpp event stream |
17 Tink PRO 他在组织语言 |
18 Ocean810975 2022-12-13 08:25:51 +08:00 via Android @ViolaH 话说是不是因为不在美国?你要在美国当我没说 |
19 eggsblue 2022-12-13 08:47:50 +08:00 作为一个人,你也需要组织语言来交流 |
20 neptuno 2022-12-13 08:49:28 +08:00 via iPhone 人也是这样说话呀,问完问题,去做点其他事情,就跟微信聊天一样。 |
21 ZztGqk 2022-12-13 12:13:33 +08:00 via iPhone 用的 decoder ,现在还是无法并行输出的。 |
22 wong2 2022-12-18 14:44:44 +08:00 Server Sent Event 当然最终是原理限制的 |