替换下面指令中的 model ID 为你本地 Ollama 里启动的版本。
openclaw onboard --non-interactive \
--auth-choice custom-api-key \
--custom-base-url "http://127.0.0.1:11434/v1" \
--custom-model-id "gemma4:31b-it-q4_K_M" \
--custom-api-key "ollama" \
--secret-input-mode plaintext \
--custom-compatibility openai \
--accept-risk
1
0U0 7 小时 7 分钟前
需要什么配置才能跑得动
|
2
Livid MOD OP PRO |
3
Visoar PRO |
4
pkuphy PRO 这个模型真的好用
|
5
senooo 6 小时 41 分钟前
手机上的 e2b 2G PC 端的 e2b 7G
|
7
v2gba 6 小时 22 分钟前
站长这个得 30+的内存才能跑了吧?
|
8
zivn 5 小时 49 分钟前
32G M3 Pro 不论用 mlx 还是 ollama 跑 31b 基本没法用。
聊天可以,openclaw 直接卡死。 虽说理论上只要 20G 内存,但 openclaw 上下文太长了,预填充要几分钟甚至十几分钟。 26b 是 MOE 就没试了,感觉还是 Dense 才有前途。 |
9
zivn 5 小时 45 分钟前
mlx 版本在 huggingface 上,mlx-community/gemma-4-31b-it-nvfp4 ,需要用 mlx-vlm 运行。
|
10
huanxianghao 5 小时 17 分钟前
很棒。
在 windows 上面跑了,4070s 跑 26b ,感觉思考时间有点长 |
11
paranoiagu 5 小时 4 分钟前 via Android
龙虾的上下文太长了,我 24G 显卡,跑 27B 的 qwen3.5 ,开了 64K 上下文,再大就爆显存了。但是 64K 龙虾不够。
|
12
chipipi 4 小时 52 分钟前 via Android
目前什么设备能跑得动?
|
13
dinjufen 4 小时 49 分钟前
16G 内存的 mac mini m4 能跑动吗
|
14
zoozobib 4 小时 47 分钟前
测试 qwen3.5-27b q4 和 gemma4-31b q4 。200K ctx 同样的代码问题,后者一把过,测试用例还是少
|
15
zoozobib 4 小时 47 分钟前
但前者能跑到 38 /t 后 只能到 33/t
|
16
levn 3 小时 39 分钟前
27b q4 使用 32G 显存,就可以开 200k 上下文
31b q4 使用 64G 显存,kv q8 量化都开不到 100k 上下文 |
17
crocoBaby 2 小时 35 分钟前
能用度如何?
|
18
learnshare 2 小时 34 分钟前
16G M2 Mac mini 勉强能跑起来低配两个版本,但仅能跑起来,没啥可用性
以后得买 64G 版本玩一玩了 |
20
zoozobib 1 小时 57 分钟前
新测,加了 2b 的 draft , 提升到 45/t ;Draft 接受率 不错,5 成
|