![]() | 1 ShadowPower 165 天前 ![]() 性价比极高,跑 q5_k_m 量化的 30B A3B 纯 cpu Ryzen 5600G + 3000MHz DDR4 ,有 14 Token/s RTX 4090 有 120~130 Token/s 开思考模式效果比 2.5 72B 还强得多 |
2 fredweili 165 天前 下午在 ollama 下一个试试我的 mcp demo |
![]() | 3 wyntalgeer 165 天前 直接给干进了全民部署时代,速来! |
![]() | 4 cskzhi 165 天前 今天早些前试了 32B Q8_0 ,不太跑得动,回头试试 A3B 的 30B |
![]() | 5 phpcxy 165 天前 借楼问下,我调阿里百炼里面的 qwen3 api ,好像只能流式输出,http 请求不行? |
![]() | 7 CynicalRose 165 天前 235B 使用体验比 MAX 整体思考过程少了,但是回答质量相似; 30B-A3B 使用体验并不是很好,答案就有拼凑风格和幻觉,而密集型的 qwen3-32b 效果就不错,体感超越 qwq-32b |
8 mercury233 165 天前 沾了好大一股 deepseek 味 |
9 hanbing135 165 天前 全民部署 跟 deepseek 一块干掉 openai |
![]() | 10 mU9vX912XopmAoE1 165 天前 不好使,同一段长文和同一段提示词,100K 以上,谷歌的 gemini pro 2.5 比阿里的 QWEN3 好,输出长,内容紧凑,qwen3 太简略了。 |
![]() | 11 wgbx 165 天前 之前用通义千问,感觉回复太慢了,用豆包就不会,有人科普一下吗 |
12 YsHaNg 165 天前 @fulajickhz gemini2.5pro 目前都是第一梯队最顶级的模型 没什么能干掉它的 closeai 干不过 更别提开源的 |
![]() | 14 caola 165 天前 @phpcxy #5 流式输出其实就是 Server Side Events (SSE),是一个单向推送的数据流(而 WebSocket 是双向),SEE 比 WebSocket 更容易实现,没有双向传输数据需求完全可以用 SSE , 现在 AI 的接口基本都是 HTTP 请求数据,SEE 下发推送数据 |
![]() | 15 Liftman 165 天前 不咋的。 本地拉出来和 qwq 对比了一下。并没有明显的进步。用 o3 设计了埋坑题目测试过也感觉不咋的。。。。。不管是 qwen3 原版还是 moe 的版本。都一般般。。甚至还不如 qwq 。。。关键是现在国外四大都挺好的。都免费的。。。完全没兴趣用。。。 |
![]() | 16 ShadowPower 165 天前 @fulajickhz 其实 gemini pro 2.5 是我心目中最强的模型,尤其是写作方面。在亚文化知识、方言写作这些领域甚至还没有竞品…… qwen3 的话,我倒是期待它的 coder 版本,不知道会不会成为能本地部署的最佳编程模型。之前 qwen2.5 的 coder 模型就很惊艳(在考虑模型大小的前提下) |
![]() | 17 Liftman 165 天前 而且有点搞笑的一点是。https://chat.qwen.ai/ 的版本的 235 版。思维链有明显性能限制,说明完全不考虑你的生成长度带来的性能需求上升的问题。。。,如果思考到 1w 多字就会必然引发思维中断,报一个网络错误。而且我观察就是性能的问题,他的速度从一开始的 10-20token/s 慢慢变成了 10 .5. 2. 1. 甚至 0.几。。。。 |
![]() | 18 mythabc 165 天前 为什么要对 Gemini pro ? llama4 才是它真正的对手,已经赢了。 |
![]() | 20 BazingaOrg 164 天前 试了下识图效果没有 gpt 好 |
![]() | 21 Eension 164 天前 为啥对阿里的 qwen 系列还有期待呢 |