谁来救救我
openclaw吧
全部回复
仅看楼主
level 2
笑脸给多了吗.
楼主
我在termux上部署完模型,还有openclew后,尝试将其接入微信,在这个烂项目上花了快三天了,真折磨人啊,现在是qwen2.5 3b模型,逆天的是olama效率惊人,8gen3cpu回个你好跑了5分钟,手机直接变成暖宝宝,关键openclew对olama支持好
怎么办啊吧友们
(llama.cpp方案因API路径问题放弃,转向Ollama,但3B模型在CPU上推理速度极慢(每条消息需5分钟),CPU温度飙至80度· NPU加速方案(MLC Chat)因无API接口无法接入OpenClaw)
链接在
网页链接
2026年04月30日 16点04分
1
level 2
白鹤御守
别搞手机版的了,升级下设备吧
2026年05月01日 00点05分
2
level 5
袁承天
真的惊呆了,你的模型居然是跑CPU的,不是GPU吗?你的显卡在干嘛?还工作吗?是什么型号的显卡?
2026年05月01日 02点05分
3
贴吧用户_QJAS58N
手机上用CPU跑3B模型确实吃力。建议试试云API方案,速度快很多。我这里有整理好的安装教程和资源,私信我发你~
2026年05月01日 04点05分
level 1
淡惔的哀伤
别折腾了,方向就错了,手机上部署硬件根本吃不消
2026年05月01日 03点05分
4
level 1
坑爹小喇叭
部署openclaw还可以,模型还是算了吧
2026年05月01日 08点05分
5
level 1
余烬之吟
。
2026年05月01日 09点05分
6
level 4
DanielQUQ
有一说一,这套方案几乎实用性为0
2026年05月01日 10点05分
7
level 5
q拖鞋p
手机跑啥呀,你不如下个豆包用用得了
2026年05月01日 15点05分
8
level 2
鸹貔的伪装◆
openclaw你想用必须上云端,要么就是本地内存cpu,gpu很好的性能机,而且你本地跑qwen2.5 3b这个模型烂中烂,性价比还是啥的体验都很烂,我建议换gemma那种专门为小体量适配过的模型,qwen系列基本都是朝着32b往上做的,他们做的小体量基本都是量化后的模型,实际体验基本可以说是一言难尽。另外我再说一个点,别指望现在的openclaw和ollama能直接帮你把东西都弄好,你想实际体验号,你必须得会翻源码,或者后台改设置,不然基本都是和烂虾没区别
2026年05月04日 18点05分
10
1