
自从 Claude 没有之后,我在 trae 里,一直用 gpt-5-high ,但是有两个问题难以解决,一个就是特别慢,另一个就是时间长了就变智障,连续四五次要求“继续”结果输出了两行注释,真是没法用。改成 kimi-k2 之后,发现速度够快,还的确能找准解决方案,然而很奇怪的一点:我用中文提示词,它的回复完全是英文,一点也不想中国公司的大模型。
1 TimPeake 3 天前 不不不,你注意观察就会发现 它是回复是英文中文随机飘。最近一个星期都在用。 |
2 xjzshttps 3 天前 我这几天也再试用 trae ,用的就是 kimi-k2 模型。 感觉这个不靠谱啊,一个小模块,很简单的二进制协议,要求是 google protobuf 序列化,只几个消息。 先和它聊好了确定了文档,甚至它生成的文档都已经有了协议消息格式。 然后重开对话让它按照文档去实现,跑了应该 1 个小时左右,完全稀烂的代码,我翻了发现根本没有能用的代码。 最离谱的是,它直接修改了需求文档,将原始的 google protobuf 定义的消息格式删掉了,改为了手工实现协议序列化。 |
4 jamesjammy061 3 天前 不行吧,今天让他给 json 排个序都是乱的 132>1112 |
5 jamesjammy061 3 天前 glm4.6 感觉比 k2 好点,kimi-k2-thinking 不知道 |
6 winglight2016 OP |
7 cxe2v 3 天前 @jamesjammy061 #5 glm 使用下来给我的感觉就像班上使劲努力学习,但是成绩总是在中游的老实学生,不聪明,也不怎么出问题 |
8 hikarumx 3 天前 trae 国内版的 glm4.6 靠谱不? 会不会是阉割版的。 |