大佬们救命啊,ollama如何调用B580显卡啊
ollama吧
全部回复
仅看楼主
level 1
折腾两天了,12500+B580
+3
2G D4,本来装了魔搭社区的Ollama英特尔优化版,按介绍来下载了qwen 8b不得行,
运行起来就报"level=ERROR source=sched.go:489 msg="error loading llama server" error="llama runner process has terminated: exit status 1""
后面感觉是不是缺什么环境,卸载以后去安装了原版的ollama最新版,装好以后下载了Deepseek R1 14b 用是可以用但是全在cpu跑,我想12G显存应该够它用了,查占用cpu100%,用了设置参数 OLLAMA_VULKAN=1 也没用
又跑去下了一个ollama-ipex-llm-2.3.0,还按照github的Arc B系方法安装了 IPEX-LLM,结果还是报:level=ERROR source=sched.go:489 msg="error loading llama server" error="llama runner process has terminated: exit status 1"
连续折腾有十个小时了啊,我先全删了,有没有大佬能解救一下啊
2026年02月22日 18点02分 1
level 9
应该是 cuda 版本问题,我之前也试过这样,都在 cpu 跑
2026年02月23日 09点02分 2
I卡用CUDA?
2026年02月24日 04点02分
回复 蓝肥牛 :我看漏了,我看问题的提示和我之前遇到的一样,就没留意是不是 N 卡。
2026年02月24日 05点02分
我继续攒钱再攒一台吧,这个B580剪视频蛮强的
2026年02月24日 11点02分
level 1
扔掉,换成英伟达显卡吧。
2026年02月24日 08点02分 3
[泪] 我继续攒钱再攒一台吧
2026年02月24日 11点02分
@热关于燃烧弹的 你把本地的python环境卸掉,重新用魔搭社区的再看看。上帝会惩罚每个不用英伟达显卡做大模型的孩子。
2026年02月24日 12点02分
@雪城冷冰 [冷]完了,对我这种小白来说只会看着教程一步步操作
2026年02月27日 06点02分
level 1
显存很重要哇 越高越好 推理的时候往往显存先爆 性能占用率其实很低的 模型有很多版本1b 4b 8b(对应8g但是会爆显存啊) 还有30b(30g以上显存才能用) 你问ai了解一下
2026年02月24日 13点02分 5
level 1
楼主我跟你讲讲我 我3060ti 8g 跑qwen8b会爆显存 换成4b就看快的多 但是跟web比慢差不多一半多跟老头一样 你买之前先问问用过的人再考虑买多好的显卡 如果钱多直接5090
2026年02月24日 13点02分 6
level 1
楼主我跟你讲讲我 我3060ti 8g 跑qwen8b会爆显存 换成4b就看快的多 但是跟web比慢差不多一半多跟老头一样 你买之前先问问用过的人再考虑买多好的显卡 如果钱多直接5090
2026年02月24日 13点02分 7
level 1
用LM studio吧,runtime选vulkan。modelscope的ollama英特尔优化版已经好久没更新了,性能不如用vulkan的llama.cpp和LM studio。只是玩玩可以选intel的AI playground,文本生成、文生图、图片编辑都可以,但是可选的模型太少,可玩性低。
2026年03月01日 13点03分 8
[呵呵]试试看
2026年03月02日 04点03分
1