
买 pro 套餐将近一个月,烧掉 16 亿 token ,我算 pro 用户了吧,写代码角度来看,算是合格的工程师了,我主要用 C++开发。
vscode+claude code cli,使用 glm 文档给出的配置直连,最近几天经常并发受限,这个能理解,但是下面这个经常出现的错误是什么意思?
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 188024 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302194338de7319971d9142ab"}
188024 > 202752
现在代码都直接交给大模型运算了?着什么算数?
算例紧张可以理解,但是频繁出现这个错误,是 claude code 的锅?是有人要害朕?
为啥出现这个?我没干什么,就是让他帮我翻译文章。
再发一个吉祥号码的:
API Error: 400 {"type":"error","error":{"message":"API 调用参数有误,请检查文档。Request 181818 input tokens exceeds the model's maximum context length 202752","code":"1210"},"request_id":"20260302164128475cc4e7028843b6"}
181818 > 202752
如果是这个所谓的 input token 和我理解的不一样,是不是可以换个说法?
1 zhonghao01 7 小时 1 分钟前 有并发上限,是 1 还是 3 来着,文档有些。 加 GLM 企业微信客服咨询,他们能告诉你答案, 发工单 群里问基本不叼你的, 发这里更没用。 |
2 TimPeake 6 小时 52 分钟前 调用频繁了 会有莫名其妙的错误,感觉他们打击灰产过头了。另外,最近三天两头崩是常态。正改 bug 呢,用不了了 能想象那种心情吗 |
3 vpjacob 6 小时 45 分钟前 同,昨天切换 minimax-m2 可以了 |
6 feelapi OP 我也买了 minimax m2.5 ,严重怀疑针对我,没花钱用免费的时候还好,花了钱结果完全是个猴子,弱智死了。看来这些大模型克我,哈哈哈哈哈 |
7 vpsvps 6 小时 40 分钟前 自己部署的 GLM 就经常提示这个 ,是不是上下文太小导致的,minimax 之前就没这个问题,qwen 3.5 还没试 |
8 stanley0black 5 小时 0 分钟前 我也遇到过类似的报错,把 cc switch 卸载了,重新手动配就好了。模型不是 GLM |
9 feelapi OP @stanley0black 我没用 ccswitch,用的时候反倒很少出现。现在是直接配置链接 glm 的,才出现这么多错误。我把 cc 又装上了,看看什么情况 |
10 listenerri 2 小时 54 分钟前 via Android 遇到过,过会儿自己就好了 |
11 goodboy95 1 小时 20 分钟前 via Android 大模型一般要求“输入 token+最大输出 token 小于 总上下文 token”,glm5 的最大输出好像是 32000 ? 不过正常情况下,返回的错误信息应该把这个问题说明白了 |