bbliangxin
bbliangxin
关注数: 31
粉丝数: 53
发帖数: 2,845
关注贴吧数: 53
请问cd2在哪播放,没找到播放按钮啊 请问下,我有部分电影是双cd,刮削过后,用安卓版jellyfin点播放只能看cd1,cd2在哪里播放啊。
今天怎么线上模式一直进不去。。。
请教大佬,训练lora模型出错 搞一天了。。也不知道问题到底出在哪 Folder 10_chinab: 360 steps max_train_steps = 1800 stop_text_encoder_training = 0 lr_warmup_steps = 180 accelerate launch --num_cpu_threads_per_process=2 "train_network.py" --enable_bucket --pretrained_model_name_or_path="D:/Programs/novelai-webu/novelai-webui-aki-v3/models/Stable-diffusion/v1-5-pruned-emaonly.ckpt" --train_data_dir="D:/Programs/novelai-webu/novelai-webui-aki-v3/train/chinab/chinab_out" --resolution=1024,1024 --output_dir="D:/Programs/kohya_ss/weds1_/model" --logging_dir="D:/Programs/kohya_ss/weds1_/log" --network_alpha="1" --save_model_as=safetensors --network_module=networks.lora --text_encoder_lr=5e-5 --unet_lr=0.0001 --network_dim=8 --output_name="chinabbb" --lr_scheduler_num_cycles="5" --learning_rate="0.0001" --lr_scheduler="cosine_with_restarts" --lr_warmup_steps="180" --train_batch_size="1" --max_train_steps="1800" --save_every_n_epochs="5" --mixed_precision="fp16" --save_precision="fp16" --cache_latents --optimizer_type="Lion" --bucket_reso_steps=64 --xformers --bucket_no_upscale prepare tokenizer Use DreamBooth method. prepare train images. found directory 10_chinab contains 36 image files 360 train images with repeating. loading image sizes. 100%|██████████████████████████████████████████████████████████████████████████████████████████████| 36/36 [00:00<00:00, 5158.34it/s] make buckets min_bucket_reso and max_bucket_reso are ignored if bucket_no_upscale is set, because bucket reso is defined by image size automatically / bucket_no_upscaleが指定された場合は、bucketの解像度は画像サイズから自動計算されるため、min_bucket_resoとmax_bucket_resoは無視され ます number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む) bucket 0: resolution (512, 512), count: 360 mean ar error (without repeats): 0.0 prepare accelerator Using accelerator 0.15.0 or above. load StableDiffusion checkpoint loading u-net: <All keys matched successfully> loading vae: <All keys matched successfully> Traceback (most recent call last): File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 415, in load_state_dict return torch.load(checkpoint_file, map_location="cpu") File "D:\Programs\kohya_ss\venv\lib\site-packages\torch\serialization.py", line 705, in load with _open_zipfile_reader(opened_file) as opened_zipfile: File "D:\Programs\kohya_ss\venv\lib\site-packages\torch\serialization.py", line 242, in __init__ super(_open_zipfile_reader, self).__init__(torch._C.PyTorchFileReader(name_or_buffer)) RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory During handling of the above exception, another exception occurred: Traceback (most recent call last): File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 419, in load_state_dict if f.read(7) == "version": UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 64: illegal multibyte sequence During handling of the above exception, another exception occurred: Traceback (most recent call last): File "D:\Programs\kohya_ss\train_network.py", line 507, in <module> train(args) File "D:\Programs\kohya_ss\train_network.py", line 96, in train text_encoder, vae, unet, _ = train_util.load_target_model(args, weight_dtype) File "D:\Programs\kohya_ss\library\train_util.py", line 1860, in load_target_model text_encoder, vae, unet = model_util.load_models_from_stable_diffusion_checkpoint(args.v2, name_or_path) File "D:\Programs\kohya_ss\library\model_util.py", line 919, in load_models_from_stable_diffusion_checkpoint text_model = CLIPTextModel.from_pretrained("openai/clip-vit-large-patch14") File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 2301, in from_pretrained state_dict = load_state_dict(resolved_archive_file) File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 431, in load_state_dict raise OSError( OSError: Unable to load weights from pytorch checkpoint file for 'C:\Users\lx/.cache\huggingface\hub\models--openai--clip-vit-large-patch14\snapshots\8d052a0f05efbaefbc9e8786ba291cfdf93e5bff\pytorch_model.bin' at 'C:\Users\lx/.cache\huggingface\hub\models--openai--clip-vit-large-patch14\snapshots\8d052a0f05efbaefbc9e8786ba291cfdf93e5bff\pytorch_model.bin'. If you tried to load a PyTorch model from a TF 2.0 checkpoint, please set from_tf=True. Traceback (most recent call last): File "D:\Programs\Python\Python310\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "D:\Programs\Python\Python310\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "D:\Programs\kohya_ss\venv\Scripts\accelerate.exe\__main__.py", line 7, in <module> File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 45, in main args.func(args) File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 1104, in launch_command simple_launcher(args) File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['D:\\Programs\\kohya_ss\\venv\\Scripts\\python.exe', 'train_network.py', '--enable_bucket', '--pretrained_model_name_or_path=D:/Programs/novelai-webu/novelai-webui-aki-v3/models/Stable-diffusion/v1-5-pruned-emaonly.ckpt', '--train_data_dir=D:/Programs/novelai-webu/novelai-webui-aki-v3/train/chinab/chinab_out', '--resolution=1024,1024', '--output_dir=D:/Programs/kohya_ss/weds1_/model', '--logging_dir=D:/Programs/kohya_ss/weds1_/log', '--network_alpha=1', '--save_model_as=safetensors', '--network_module=networks.lora', '--text_encoder_lr=5e-5', '--unet_lr=0.0001', '--network_dim=8', '--output_name=chinabbb', '--lr_scheduler_num_cycles=5', '--learning_rate=0.0001', '--lr_scheduler=cosine_with_restarts', '--lr_warmup_steps=180', '--train_batch_size=1', '--max_train_steps=1800', '--save_every_n_epochs=5', '--mixed_precision=fp16', '--save_precision=fp16', '--cache_latents', '--optimizer_type=Lion', '--bucket_reso_steps=64', '--xformers', '--bucket_no_upscale']' returned non-zero exit status 1. Folder 10_chinab: 360 steps max_train_steps = 1800 stop_text_encoder_training = 0 lr_warmup_steps = 180 accelerate launch --num_cpu_threads_per_process=2 "train_network.py" --enable_bucket --pretrained_model_name_or_path="D:/Programs/novelai-webu/novelai-webui-aki-v3/models/Stable-diffusion/v1-5-pruned-emaonly.ckpt" --train_data_dir="D:/Programs/novelai-webu/novelai-webui-aki-v3/train/chinab/chinab_out" --resolution=1024,1024 --output_dir="D:/Programs/kohya_ss/weds1_/model" --logging_dir="D:/Programs/kohya_ss/weds1_/log" --network_alpha="1" --save_model_as=safetensors --network_module=networks.lora --text_encoder_lr=5e-5 --unet_lr=0.0001 --network_dim=8 --output_name="chinabbb" --lr_scheduler_num_cycles="5" --learning_rate="0.0001" --lr_scheduler="cosine_with_restarts" --lr_warmup_steps="180" --train_batch_size="1" --max_train_steps="1800" --save_every_n_epochs="5" --mixed_precision="fp16" --save_precision="fp16" --cache_latents --optimizer_type="Lion" --bucket_reso_steps=64 --xformers --bucket_no_upscale prepare tokenizer Use DreamBooth method. prepare train images. found directory 10_chinab contains 36 image files 360 train images with repeating. loading image sizes. 100%|██████████████████████████████████████████████████████████████████████████████████████████████| 36/36 [00:00<00:00, 7809.41it/s] make buckets min_bucket_reso and max_bucket_reso are ignored if bucket_no_upscale is set, because bucket reso is defined by image size automatically / bucket_no_upscaleが指定された場合は、bucketの解像度は画像サイズから自動計算されるため、min_bucket_resoとmax_bucket_resoは無視され ます number of images (including repeats) / 各bucketの画像枚数(繰り返し回数を含む) bucket 0: resolution (512, 512), count: 360 mean ar error (without repeats): 0.0 prepare accelerator Using accelerator 0.15.0 or above. load StableDiffusion checkpoint loading u-net: <All keys matched successfully> loading vae: <All keys matched successfully> Traceback (most recent call last): File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 415, in load_state_dict return torch.load(checkpoint_file, map_location="cpu") File "D:\Programs\kohya_ss\venv\lib\site-packages\torch\serialization.py", line 705, in load with _open_zipfile_reader(opened_file) as opened_zipfile: File "D:\Programs\kohya_ss\venv\lib\site-packages\torch\serialization.py", line 242, in __init__ super(_open_zipfile_reader, self).__init__(torch._C.PyTorchFileReader(name_or_buffer)) RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory During handling of the above exception, another exception occurred: Traceback (most recent call last): File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 419, in load_state_dict if f.read(7) == "version": UnicodeDecodeError: 'gbk' codec can't decode byte 0x80 in position 64: illegal multibyte sequence During handling of the above exception, another exception occurred: Traceback (most recent call last): File "D:\Programs\kohya_ss\train_network.py", line 507, in <module> train(args) File "D:\Programs\kohya_ss\train_network.py", line 96, in train text_encoder, vae, unet, _ = train_util.load_target_model(args, weight_dtype) File "D:\Programs\kohya_ss\library\train_util.py", line 1860, in load_target_model text_encoder, vae, unet = model_util.load_models_from_stable_diffusion_checkpoint(args.v2, name_or_path) File "D:\Programs\kohya_ss\library\model_util.py", line 919, in load_models_from_stable_diffusion_checkpoint text_model = CLIPTextModel.from_pretrained("openai/clip-vit-large-patch14") File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 2301, in from_pretrained state_dict = load_state_dict(resolved_archive_file) File "D:\Programs\kohya_ss\venv\lib\site-packages\transformers\modeling_utils.py", line 431, in load_state_dict raise OSError( OSError: Unable to load weights from pytorch checkpoint file for 'C:\Users\lx/.cache\huggingface\hub\models--openai--clip-vit-large-patch14\snapshots\8d052a0f05efbaefbc9e8786ba291cfdf93e5bff\pytorch_model.bin' at 'C:\Users\lx/.cache\huggingface\hub\models--openai--clip-vit-large-patch14\snapshots\8d052a0f05efbaefbc9e8786ba291cfdf93e5bff\pytorch_model.bin'. If you tried to load a PyTorch model from a TF 2.0 checkpoint, please set from_tf=True. Traceback (most recent call last): File "D:\Programs\Python\Python310\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "D:\Programs\Python\Python310\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "D:\Programs\kohya_ss\venv\Scripts\accelerate.exe\__main__.py", line 7, in <module> File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 45, in main args.func(args) File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 1104, in launch_command simple_launcher(args) File "D:\Programs\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['D:\\Programs\\kohya_ss\\venv\\Scripts\\python.exe', 'train_network.py', '--enable_bucket', '--pretrained_model_name_or_path=D:/Programs/novelai-webu/novelai-webui-aki-v3/models/Stable-diffusion/v1-5-pruned-emaonly.ckpt', '--train_data_dir=D:/Programs/novelai-webu/novelai-webui-aki-v3/train/chinab/chinab_out', '--resolution=1024,1024', '--output_dir=D:/Programs/kohya_ss/weds1_/model', '--logging_dir=D:/Programs/kohya_ss/weds1_/log', '--network_alpha=1', '--save_model_as=safetensors', '--network_module=networks.lora', '--text_encoder_lr=5e-5', '--unet_lr=0.0001', '--network_dim=8', '--output_name=chinabbb', '--lr_scheduler_num_cycles=5', '--learning_rate=0.0001', '--lr_scheduler=cosine_with_restarts', '--lr_warmup_steps=180', '--train_batch_size=1', '--max_train_steps=1800', '--save_every_n_epochs=5', '--mixed_precision=fp16', '--save_precision=fp16', '--cache_latents', '--optimizer_type=Lion', '--bucket_reso_steps=64', '--xformers', '--bucket_no_upscale']' returned non-zero exit status 1.
请教各位一个xss串流的问题 最近翻出来一个以前的8寸小平板(荣耀平板5,8寸),刚开始的时候串流还没问题,偶尔卡顿一下,这两天突然出现了一个问题
请教一个串流的问题。 最近翻出来一个以前的8寸小平板(荣耀平板5,8寸),刚开始的时候串流还没问题,偶尔卡顿一下,这两天突然出现了一个问题 就是串流成功后,几秒后画面会卡住,但是有声音,用手柄操作的时候,也能听到操作音效,就是画面不动。 是什么情况啊,有大神知道嘛?
请教大神,sunshine串流,手柄按键错位 sunshine串流,蓝牙手柄连接手机,那个叫什么bus的手柄驱动也已经安装。 出现的情况是: 1.摇杆控制光标的时候,好像屏幕上有一个看不见的框框。光标只能在框框里移动,然后一松摇杆,光标会回弹中心,就像是摇杆的自动回正一样。 2.在游戏中,按键和方向键完全错乱。且只有几个键能识别出来。 请教大佬,这是什么情况。
各位大佬,我哦这个机器是怎么回事 机器是2013款的27寸imac,放了好久没用,有一天打开屏幕突然像电视机雪花点一样。 然后过几秒有画面了,但是图标都非常大,屏幕分辨率只能到1280x720。装的两个系统(mac+win)都是同样的问题。在win下设备管理器里显卡没有异常。
请教大佬,hc520在n3150主板上识别不了 硬盘是hc520,12t容量,挂在我别的电脑上可以识别,扫描了一天也全绿。硬盘应该没问题 主板是七彩虹n3150m-k全固态版v21 做的黑群晖,黑群晖是6.几的系统。 现在的情况是不但黑群晖识别不了,在主板bios里也识别不了。请问是什么情况?
求助大佬,买来的12t硬盘黑群晖不识别 硬盘是hc520,挂在我别的电脑上可以识别,扫描了一天也全绿。硬盘应该没问题 主板是七彩虹n3150m-k全固态版v21 黑群晖是6.几的系统。 现在的情况是不但黑群晖识别不了,在主板bios里也识别不了。请问是什么情况?
请问各位,恐怖黎明,游戏卡顿怎么办,显卡3060. 请问各位,恐怖黎明,游戏卡顿怎么办,显卡3060.cpu是5800h,就是2021款的拯救者r9000p,往往出现在切换地图之类的时候,走路一顿一顿的掉帧。也有时候不卡
t8aivi强效拖地水箱不工作是什么情况
请教下,个税和社保有2年时间公司不一样 请教大大个问题,社保和个税分别是两家公司交的。但这两家公司为关联公司。都属于上海 我本人是在下属子公司工作,但个人关系一直是挂在母公司的,但因为行政的失误,导致我有两年时间,社保是母公司交的,个税是下属子公司交的。 现在出了一个事情,我母公司要被收购,子公司将要被剥离出来,我的关系要转到子公司,我本人居住证已满6年进入第7年,趁现在母公司那边还有人可以说话,我需要让母公司开些什么证明呢?
变革11,待机卡套会失效 原卡32g做ux0,卡套128g做uma0.原本是变革0固化,前几天翻出来升了变革11,又安装了吧里的tf卡工具, 现在的问题是待机会出现这样的情况 1.vitashell能看到uma0,也能看到大小,但是点进去没有文件 2.psp肾上腺素6.3能看到卡的大小(我设定的psp盘在uma0),但是点进去看不到游戏。 3.待机后molecular shell连uma0(tf卡)都看不到。 总之就是待机过后tf卡会失效。 psv1000,系统3.60
有联通猎人吗?各位都是怎么解决联网问题的? 开局10分之内必定006-0332,用了8.8.8.8以后变成006-0502,崩了。。。
自己做的luma开机画面,为什么下屏是花版? 如图所示
请问各位现在新小三8.1怎么升级到9.1, 请问各位现在新小三8.1怎么升级到9.1,无sky卡。。有gw卡
2012款IMAC,USB3.0设备被识别成USB2.0设备。请问是怎么回事 一个闪迪CZ80 64G的U盘,一个奥瑞科10口的USB3.0 HUB。 都被识别成2.0U盘和2.0HUB,是什么情况?
收一台高版本的老小三或者老大三,只要便宜 不看成色,只要功能无问题,便宜的来,传家宝请绕道。谢谢,27610542
请问xboxone有型可塑么? 如题。。x360拿到老丈人家给锻炼身体用了,想问xo有没有这个游戏。
cod限定美亚直邮今天到货,无税!!!! 哈哈
垃圾上海贝露时尚电玩旗舰店,预定马车8居然要加价才发货 预定了那么多次,有砍单的,第一次碰到舔着脸让我加价的。 现在价格提上去了,标题就改成不加价了,真垃圾,最后一次在这里订游戏了。 店名:上海贝露时尚电玩旗舰店,记住这个奸商。 加价我也加了,权当买个差评·~~
垃圾上海贝露时尚电玩旗舰店,预定马车8居然要加价才发货 预定了那么多次,有砍单的,第一次碰到舔着脸让我加价的。 现在价格提上去了,标题就改成不加价了,真垃圾,最后一次在这里订游戏了。 店名:上海贝露时尚电玩旗舰店,记住这个奸商。 加价我也加了,权当买个差评·~~
垃圾上海贝露时尚电玩旗舰店,预定马车8居然要加价才发货 预定了那么多次,有砍单的,第一次碰到舔着脸让我加价的。 现在价格提上去了,标题就改成不加价了,真垃圾,最后一次在这里订游戏了。 店名:上海贝露时尚电玩旗舰店,记住这个奸商。 加价我也加了,权当买个差评·~~
垃圾上海贝露时尚电玩旗舰店,预定马车8居然要加价才发货 预定了那么多次,有砍单的,第一次碰到舔着脸让我加价的。 现在价格提上去了,标题就改成不加价了,真垃圾,最后一次在这里订游戏了。 店名:上海贝露时尚电玩旗舰店,记住这个奸商。 垃圾上海贝露时尚电玩旗舰店,预定马车8居然要加价才发货
13-10-24【讨论】这个是好东西么? 7级挖掘,带刀匠4珠子
【求助】记忆之书的那个不断从天上扔血球的BOSS怎么过啊,卡住了 ZONE 18之后的那个BOSS。。。。离近了打他,他立刻反击,打了一会无限转圈吐血射线~~~悲剧
今天打出了5代三角头结局,忽然想到了游戏里为什么三角头不杀主角 一直不明白为什么在游戏里那次三角头跟主角对视半天但又扭头离开,而且在整个游戏里,主角都没有跟三角头正面冲突过的原因。。。今天打出了三角头结局里,2个三角头给主角戴上了三角面具,主角也成了第3个三角头,第3个,忽然想到牧羊小镇建镇正好是150年,而根据游戏里的提示,每隔50年四大家族就需要献上一次他们的孩子,而正好,主角这代是第三次献祭,我想会不会那两个三角头就是前两次献祭的主角家族里的孩子,而他们不杀主角的原因就是看主角有变三角头的潜力,杀了主角的父亲是因为一方面他们能感觉到主角对父亲的恨意(因为他们都有类似的遭遇),另一方面,这样也能让主角更容易思想陷入崩溃的状况,而成为新的三角头。想到这里,可能有朋友会想到一个问题,就是150年,四大家族的祖先第一次来到这个镇子上时有没有立刻献祭主角的孩子,如果这样算的话,主角这代就是第4次献祭了,那么前面说的也就说不通了,但我猜想,四大家族第一次来到这个镇子上的时候,可能没有立刻献祭自己的孩子,但由于他们的信仰,镇子上可能会发生一些怪事,他们可能会认为是神的报复,而在50年之后,第一次献上了自己的孩子。。这样也比较符合人的思想。。。。猜的对不对,还请大家多包涵。。。
请问PS上的女神异闻-罪,罚这两部有汉化么? 很想玩这游戏,无奈日文英文都看不懂~~
恩仿寂静岭T恤,玩 1,割喉,灵感来源SH3里血痕
问一个问题~寂静岭2普通版和所谓的"导演剪辑版"有什么区别 最近下了一个导演剪辑版寂静岭2~~好象印象中片头LOGO有点不一样了~其他的还有什么区别吗?谢谢~
哪位朋友能给我解释一下零红蝶的结局~~~ 我实在想不明白MIO在最后为什么要掐死她姐姐~~她姐姐变成了红蝶...最后在MIO脖子上出现红蝶是什么意思?结局感觉好悲伤啊~~顺便说一句,纱重好可爱啊~~~~~~~~~...
【讨论一下吧】刚出了第7集~大家进来讨论一下吧~ 出乎意料的~圭一这次比鬼隐篇聪明了一些~~也许吧~而且圭一这次看起来不像是中了药物. 首先村长的失踪,如果照动画里的圭一的推理,那村长的失踪原因根本不是所谓的诗音把她进过祭具室告诉了村长才导致的失踪,那在电话里所谓的诗音(?)说她告诉了村长这件事,就是为了让圭一产生联想,联想到梨花的人身安全,如果这么说的话,起码一点就是打电话的诗音(?)在打电话前就知道圭一跟梨花说过这件事,现在的所有的证据好象都直指着魅音,关于这一点,还有一点我很在意,就是魅音在晃梯子的时候提到的"悟矢",(因为之前有权威人士说是平行世界,鬼隐和绵流说的是两个平行世界的事),但是在绵流篇里,应该没有人曾告诉过圭一关于悟矢这个人才对,这会不会是在电话里的诗音(?)引导圭一联想的原因?而且魅音在晃梯子的时候说的话本身就有矛盾,她说沙度子是诅咒之子,但梨花的父亲也是死者其中之一啊,(从鬼隐篇也可以看出沙都子在第二年父母不测之后是住在叔母家的,也就是悟失的家),那她说那番话的目的是什么?
[提议]我觉的如果寂静岭电影非枪版的出来以后,我们SH爱好者可以自 我觉的这个电影要想翻译的好的话应该要对游戏以及背景有一定了解~应该要比没玩过游戏的人翻译的要好的多~~~也算是做一大贡献~~我就是提议一下~~在下的E文是烂的一踏糊涂~~还得看达人们的了~~~不过如果要修图什么的在下可以帮忙~~
1
下一页