大家好,很高兴在这里向各位介绍我们的产品 Free QWQ 。这是世界上第一个完全免费、无限制、无需注册登录的分布式 AI 算力平台,基于 QwQ 32B 大语言模型提供强大的 AI 服务。
传送门:(https://qwq.aigpu.cn)立刻开始使用免费 API
目前市面上的 AI 服务要么收费昂贵,要么有严格的使用限制。因为大语言模型的 GPU 服务器成本非常非常高,尤其是像 QwQ 32B 这样的大规模模型,全世界都没有这样一个完全免费、无限制的产品。
因此,我们希望通过分布式家用显卡算力网络,打造一个零门槛、高性能的 AI 服务平台,让所有人都能享受 AI 带来的便利。
Free 代表我们的核心理念 - 让 AI 服务完全免费,QwQ 则来自于我们采用的 QwQ 32B 大语言模型,这是阿里最新开源的强大模型,其性能媲美 DeepSeek-R1 、o1-mini 等明星模型。
我们采用创新的分布式算力架构,整合了来自全球的闲置显卡资源,包括个人电脑和网吧的 3090 、4080 、4090 等高性能显卡。通过这种方式,我们构建了一个庞大的分布式计算网络,可以为用户提供强大而免费的算力支持。
本项目得到以下平台的大力支持:
如果大家觉得这套页面 UI 样式不错,稍后我会开源到 Github 上,欢迎大家 fork 和 star 。
![]() |
1
ucaime 2 天前 ![]() 免费的才是最贵的,没点进去盲猜几个可能:
1. 免费不等于永久免费,先进来再收割? 2. 想真永久免费必须贡献自己的算力? |
![]() |
3
jroger 2 天前 ![]() 我还是挺喜欢这种方式的。只要把价格打下来。如果云服务商杀红眼了,这种方式他们会千方百计的搞你。
|
![]() |
4
scyuns 2 天前
UI 不错 就是 CURL 失败了
|
![]() |
6
molezznet 2 天前
试了下,速度好慢 ………… 感觉是用 cpu ……
|
7
ccloving 2 天前
用了下,32B 好慢好慢好慢。
671b 不免费。 |
![]() |
8
cat9life 2 天前
免费只有两条归路:1. 为商业引流,完成使命后收费或者取消。2. 为爱发电,最终觉得委屈而关闭。
|
![]() |
11
nexmoe OP 刚刚把 16G 显存以下节点撤了,只有下面几种显卡类型了。
NVIDIA GeForce RTX 4090 Laptop GPU NVIDIA GeForce RTX 4090 D NVIDIA GeForce RTX 4090 NVIDIA GeForce RTX 3090 Ti NVIDIA GeForce RTX 3090 NVIDIA only 4090 laptop |
![]() |
12
agood 2 天前 via iPhone
一眼就很皮包公司,世界、首个、免费、无限制…恨不得把所有极限词都用上
|
![]() |
13
nexmoe OP @agood 但这就是客观事实啊,熬大夜通宵赶出来,那不就是抢快吗。
我们本质上做分布式平台的,世界上也确实没有把 QwQ 32B 跑在分散的家用电脑上的。 之前 DeepSeek 7B 就是完全免费,但是需要登录。现在 QwQ 32B 直接就是免费且没有限制,API KEY 都直接给出来了,登录注册都不需要。 |
![]() |
14
nolan1864 2 天前 via iPhone
数十万台网吧资源怎么搞的,而且网吧一般不都是 3060, 4070 的中端显卡么,显存就不太够吧,8G 的显存装了模型,就没多少分给 kvcache 了,性价比太低了。
|
![]() |
15
mkroen 2 天前 ![]() 支持!另外提一嘴,算了么什么时候能支持 linux😂
|
![]() |
16
0312birdzhang 2 天前
示例请求前面四行最后面少了 \ 😒
|
![]() |
17
nexmoe OP @0312birdzhang 已优化
|
![]() |
18
Moyyyyyyyyyyye 2 天前
|
19
RiESA 2 天前
分布式算力网络:已接入超过一万台个人电脑和数十万台网吧的闲时算力资源
🤔被接入的对方知情吗? 我的意思是这描述怎么看起来像肉鸡 |
![]() |
20
JZen 2 天前
赞一个,很巧的是今天上午我想起以前还在上学的时候玩过一个类似的事情,做了一个抠图的模型部署到服务器,但阿里云学生机算力不够,不能同时运行多个任务,于是又写了个 Python 脚本在终端运行(例如电脑、Linux 开发板),从服务器获取一个任务然后返回运算结果,最后发现网络带宽又不够用了。。。
|
![]() |
23
Psily1017 2 天前
有一点点慢,但是通过这个 api ,的确能实现不少想法
|
25
whileFalse 2 天前
盈利模式是什么
|
![]() |
26
Amose2024 2 天前
|
![]() |
27
Amose2024 2 天前
|
![]() |
28
Amose2024 2 天前
代码中给了一分钟响应时间,除了反应慢,还挺好用👍
|
29
snake9804 2 天前 via iPhone
不然去发币吧
|
![]() |
30
kk2syc 2 天前
@whileFalse 网吧闲置机器挂机赚钱,和 pcdn 一样的业务模式,mini 矿机
|
31
lloovve 2 天前 via iPhone
十万台就这个速度吗?还是就弄了一个显卡空手套?正常理解接入十万台,给这个 qwq100 台算力,也不至于这个速度啊
|
32
lovestudykid 2 天前
QwQ BF16 原版 66G ,家用 GPU 都跑不了吧,官方 Q4 量化我体验性能还是差不少的,后面可能会有更好的量化版本
|
![]() |
33
lithiumii 2 天前 via Android
petals 比你们早吧,而且是小显存的卡分布式部署大于单卡显存的模型。可惜免费节点已经没人跑了。
|
34
lovestudykid 2 天前
你们的 https://gongjiyun.com/ 这个网站是用用户机器挖矿还是跑 LLM ?一打开就疯狂占用 GPU ,卡得要死
|
![]() |
35
nexmoe OP @Amose2024 #28
@lloovve 用户电脑质量参差不齐,我们还没有做好稳定性检测。目前提供了 50 个节点,有些节点质量还不错,有些节点质量比较差,可以看图。  |
36
root71370 1 天前 via Android
有点意思
|
37
root71370 1 天前
这是不是变相的挖矿啊
|
![]() |
38
jsutfun 1 天前
这个是真的慢呀
|
![]() |
39
wsc449 1 天前
llama runner process has terminated: error loading model: unable to allocate CUDA0 buffer
llama_model_load_from_file_impl: failed to load model (type: api_error) |
![]() |
40
nexmoe OP @lovestudykid #34 只有一些简单的动画,下周让前端优化一下
|
![]() |
41
Charon2050 1 天前
有没有考虑过提供一些非推理模型作为免费的选择?有很多时候用户的问题并不需要推理
|
![]() |
42
nexmoe OP @Charon2050 怎么说,比如哪些模型
|