level 3
而且再次提交的话就会connection error
2023年11月29日 09点11分
2
[url]https://blog.csdn.net/nfkjdx/article/details/135019173?spm=1001.2014.3001.5502 [/url] 非常详细,可以参考
2024年01月30日 07点01分
level 5
如果web_demo不正常,cli_demo.py正常,那是前端显示的问题,解决办法是卸载高版本gradio,装低版本
但你这个连cli_demo.py都不正常,我就不知道了。
2023年11月29日 10点11分
6
他会一直这样然后最后说cuda内存不足
2023年11月29日 10点11分
level 1
试一下
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
2023年12月01日 01点12分
7
能跑了,清华云盘的模型老了,下了个新的解决了
2023年12月01日 06点12分