各位在本地化部署和使用的时候都遇到了什么缺陷吗
deepseek吧
全部回复
仅看楼主
level 7
猫鱼哦º 楼主
我用的介绍最多的ollama+chatbox,安的是r1-14b。感觉上下文长度,多模态还有联网方面在这个使用方法下好像不太行?
1.上下文长度是我受到影响最大的,但也是最没办法的,14b的模型限制就到这了,基本上看论文一章能记住就不错了。
2.然后多模态方面,好像deepseek都是用外部system把图片转文本再输入的,本身没有预训练图片像素数据之类的,所以用chatbox这种输入图片没有处理的话是理解不了的。我不知道这是模型参数的问题还是即便是几百b的也是这样(我在网页版里看到think里写的图片确实是转成了文本形式)
3.联网搜索,chatbox本身有联网搜索功能,但不支持r1模型,只有部分才支持。
不知道有没有其他的生态能解决或者说缓解一下这些问题了,毕竟不想自己造轮子,费时费力可能做出来效果还不好。如果不行的话,目前deepseek服务器资源太紧张,作为生产工具还是不太合适,估计还是付费的claude或者没降智的gpt来满足高效工作?
2025年02月14日 17点02分 1
level 7
pageassist能联网
2025年02月18日 07点02分 2
1