ollama吧
关注: 602 主题: 1,106 帖子: 1,106
时下热门
最新回复
最新发布
0
2024-11-27
经核实吧主OK啦户口 未通过普通吧主考核。违反《百度贴吧吧主制度》第八章规定http://tieba.baidu.com/tb/system.html#c……
0
2024-11-27
经核实吧主OK啦户口 未通过普通吧主考核。违反《百度贴吧吧主制度》第八章规定http://tieba.baidu.com/tb/system.html#c……
2
04:04
家里有2台机子,硬件配置不同,一台24h2,一台25h2。 Ollama版本有2个,一个是0.12.2,一个是0.12.6 两个版本在24h2的机子上都可……
0
00:04
不管怎么重装都没用
4
04-19
我在ollama下载无审核ai模型,刚开始网速正常,快下完的时候网速掉到特别低,是咋回事啊
18
04-09
ollama能正常运行,但是不调用GPU,nvidia驱动和cuda都安装好了的,请问大佬们有遇到过类似情况吗
3
04-09
5090物理机 算力租赁
🧑南栾924
1
04-06
2
03-29
🧑Elon🌙
12
03-24
有大佬能教一下ollama怎么调用9070xt吗
🧑Roa_ring
6
03-23
为什么我下载的molili一直无法成功连接电脑本地部署的ollama模型啊!大佬求助
0
03-22
谁有最新ollama网盘链接哇?感谢各位大佬
3
03-18
想本地部署但是官网下载太慢看b站都是直接下载完成 请大佬帮忙
5
03-13
部署完本地AI还是有限制,都回答不了。推荐几个模型,常用的AI模型都是生成英文
4
03-13
找不到无限制大模型,甚是苦恼啊。有狠人帮忙介绍可有偿
3
03-13
DeepSeek下载越到后面越慢怎么办,都变成kb了,用奇游加速器也不管用,大佬求助
🧑萌哭
0
03-09
1
03-06
如图,回答完又自己问自己然后又开始回答
0
03-04
ai本地部署,三张显卡,两张2080ti22g,一张4070s12g,三张卡一起插的时候,ai只调用内存,去掉一张2080ti后,又可以正常调用显存。但是……
6
03-04
用的395,跑deepseek70b,总内存128g,分配64g给显存,实际跑的时候显存占用只有40g,内存占用50g,如果显存给96g就直接跑不了了
🧑Zhaoltº
0
03-02
下载安装之后没反应不能对话也不能选模型,服务里面也没有ollamalog日志 通过网盘分享的文件: 链接: http://tieba.baidu.com/……
13
03-02
折腾两天了,12500+B580+32G D4,本来装了魔搭社区的Ollama英特尔优化版,按介绍来下载了qwen 8b不得行, 运行起来就报"level……
6
02-26
我用ollama提取小说大纲,一章一章的连续提取,用的14b模型,造成gpu温度高达80℃,时间长了电脑会重启,有啥办法避免重启?
🧑APS3000
8
02-19
跟着知乎上的教程安装好了 但是默认的c盘位置没改过来 系统环境变量也改过来 重启后没有变化
🧑WMHOI4
1
02-12
想用ollama搭建一个ai,然后部署到本地。想用拟人程度高一点的。说话不怎么死板的那种,大佬们有没有模型推荐
1
02-10
CPU为max+395,128G内存。Qwen3-1.5B模型可以用,但是Qwen3-30B-A3B,无法被加载。
2
02-07
求助大佬们,目前配置是e5-2686v4,内存32G,显卡4060ti-16G,运行deepseek-r1:14b,应该是docker没调用gpu,怎样解……
🧑271660
51
02-04
今天下载 14B 的一个模型,进度就是一直卡在 5%,还往后倒退是怎么回事?是因为今天服务器被攻击吗
🧑老猫_3
0
02-03
用英特尔CPU部署ollama,cpu似乎不能完全占用(只跑p核) CPU是13900K,只跑p核这个奇怪的问题,大家有发现吗
27
01-31
0 1 2 3 4 5 尾页