![]() |
1
ShadowPower 3 天前 ![]() 性价比极高,跑 q5_k_m 量化的 30B A3B
纯 cpu Ryzen 5600G + 3000MHz DDR4 ,有 14 Token/s RTX 4090 有 120~130 Token/s 开思考模式效果比 2.5 72B 还强得多 |
2
fredweili 2 天前
下午在 ollama 下一个试试我的 mcp demo
|
![]() |
3
wyntalgeer 2 天前
直接给干进了全民部署时代,速来!
|
![]() |
4
cskzhi 2 天前
今天早些前试了 32B Q8_0 ,不太跑得动,回头试试 A3B 的 30B
|
![]() |
5
phpcxy 2 天前
借楼问下,我调阿里百炼里面的 qwen3 api ,好像只能流式输出,http 请求不行?
|
![]() |
7
CynicalRose 2 天前
235B 使用体验比 MAX 整体思考过程少了,但是回答质量相似; 30B-A3B 使用体验并不是很好,答案就有拼凑风格和幻觉,而密集型的 qwen3-32b 效果就不错,体感超越 qwq-32b
|
8
mercury233 2 天前
沾了好大一股 deepseek 味
|
9
hanbing135 2 天前
全民部署 跟 deepseek 一块干掉 openai
|
![]() |
10
mU9vX912XopmAoE1 2 天前
不好使,同一段长文和同一段提示词,100K 以上,谷歌的 gemini pro 2.5 比阿里的 QWEN3 好,输出长,内容紧凑,qwen3 太简略了。
|
![]() |
11
wgbx 2 天前
之前用通义千问,感觉回复太慢了,用豆包就不会,有人科普一下吗
|
12
YsHaNg 2 天前
@fulajickhz gemini2.5pro 目前都是第一梯队最顶级的模型 没什么能干掉它的 closeai 干不过 更别提开源的
|
![]() |
14
caola 2 天前
@phpcxy #5 流式输出其实就是 Server Side Events (SSE),是一个单向推送的数据流(而 WebSocket 是双向),SEE 比 WebSocket 更容易实现,没有双向传输数据需求完全可以用 SSE ,
现在 AI 的接口基本都是 HTTP 请求数据,SEE 下发推送数据 |
![]() |
15
Liftman 2 天前
不咋的。 本地拉出来和 qwq 对比了一下。并没有明显的进步。用 o3 设计了埋坑题目测试过也感觉不咋的。。。。。不管是 qwen3 原版还是 moe 的版本。都一般般。。甚至还不如 qwq 。。。关键是现在国外四大都挺好的。都免费的。。。完全没兴趣用。。。
|
![]() |
16
ShadowPower 2 天前
@fulajickhz 其实 gemini pro 2.5 是我心目中最强的模型,尤其是写作方面。在亚文化知识、方言写作这些领域甚至还没有竞品……
qwen3 的话,我倒是期待它的 coder 版本,不知道会不会成为能本地部署的最佳编程模型。之前 qwen2.5 的 coder 模型就很惊艳(在考虑模型大小的前提下) |
![]() |
17
Liftman 2 天前
而且有点搞笑的一点是。https://chat.qwen.ai/ 的版本的 235 版。思维链有明显性能限制,说明完全不考虑你的生成长度带来的性能需求上升的问题。。。,如果思考到 1w 多字就会必然引发思维中断,报一个网络错误。而且我观察就是性能的问题,他的速度从一开始的 10-20token/s 慢慢变成了 10 .5. 2. 1. 甚至 0.几。。。。
|
![]() |
18
mythabc 2 天前
为什么要对 Gemini pro ? llama4 才是它真正的对手,已经赢了。
|
![]() |
20
BazingaOrg 2 天前
试了下识图效果没有 gpt 好
|
![]() |
21
Eension 1 天前
为啥对阿里的 qwen 系列还有期待呢
|