nowen1987 nowen1987
关注数: 21 粉丝数: 85 发帖数: 4,206 关注贴吧数: 16
【210911】transmission web端批量更新passkey的方法 passkey重置了,需要一个个改么?其实网上找一下,就能找到批量重置的方法,但是。。仅限windows下的客户端,全选后,右键有个高级属性,可以批量改。 但很多用户是用nas的,只有web ui,这个时候全选,选中服务器中的tracker地址,会发现一次还是只能改一个,并不是所有选中的都被修改。。。 网上找到了用transmission-remote指令批量修改passkey的方法,但是会发现,在nas上并不好使,因为提示找不到transmission-remote命令。这时候需要修改一下代码,加上transmission-remote的绝对路径。以群晖为例transmission-remote的绝对路径是:/volume1/@appstore/transmission/bin/transmission-remote 注意,有的用户可能修改了套件的默认安装位置,这里的volume1需要修改为你的真实安装位置,下面放出完整代码 #!/bin/bash username="你的tr用户名" password="你的tr密码" host="nas地址:tr端口" for i in $(/volume3/@appstore/transmission/bin/transmission-remote $host -n $username:$password -l|awk '{print $1}'|grep -o -P '\d+') do out=$(/volume3/@appstore/transmission/bin/transmission-remote $host -n $username:$password -t $i -it|grep $1) if [ -n "$out" ];then id=$(echo "$out"|awk -F: '{print $1}'|grep -o -P '\d+') echo $i /volume3/@appstore/transmission/bin/transmission-remote $host -n $username:$password -t $i -tr $id /volume3/@appstore/transmission/bin/transmission-remote $host -n $username:$password -t $i -td $2 fi done 1)在本地计算机建一个文本文档,重命名为chtracker.sh,拷贝上述脚本,把tr用户名,密码,端口修改一下。再确认一下transmission的安装位置。 2)把上述脚本上传到nas,记住路径。例如: /volume1/data 3)ssh进入nas 定位到 /volume1/data,调用方法是:./chtracker.sh http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Ftrackerserver.com&urlrefer=21bbc60cd3a06727b8e05070d0fabf79 http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Ftrackerserver.com%2Fannounce.php%3Fpasskey%3Dxxxxxxxxxx&urlrefer=c39bfbb75995c1eeda69cd7f9d790555 解释一下,有两个参数,一个参数是你想要更改的tracker服务器的网址(因为大多数应该都是全站替换吧),第二个参数是要替换成的带passkey的地址。 测试了一下,使用没有问题~会弹出提示 nas地址:tr端口/transmission/rpc/ responded: "success" 如果没有任何显示,可能脚本配置有问题~
【210911】花100多升级影音库存储为固态盘,丝般润滑~ jellyfin装在自组的黑群上,电影1500+,剧集400+,音乐专辑1000+,另外还有很多教程文件(mix),未打包的漫画图片……上次升级到10.7没做好备份,重建了下数据库。。花了整整一天!而且使用起来卡顿明显,就是经常转圈,偶尔刷不出媒体库里面的文件,图片库大多数时候都打不开。但是目前也没找到比较好的管理未打包图片的漫画服务器。。。 之前以为jellyfin只是重建数据库,有一天,看了下/config和/cache的属性,居然有1个多G。看了下/cache和/config/metadata/library 下都有海量的图片文件,每个都不大,但是数据超级多。我用的是西数的企业盘,还是会卡顿,看来小文件读取是瓶颈了。换固态应该有质的提升~ 立即行动,直接下单SN550 ,所说是性能和发热兼顾的最佳选择,因为后面还想着用它刷刷pt上传,所以入了1T的版本,硬盘矿基本过去,现在价格还算合适,700多点。当然你也可以选择256G版本的,只要300多。或者如下杂牌的128G nvme协议固态,只要100多,装jellyfin也绝对是够用了。 迁移方法也很简单,我是docker安装,直接替换/config和/cache的卷映射即可~分四步: 1)停止jellyfin docker容器 2)拷贝/config和/cache映射文件 3)修改jellyfin docker容器的/config和/cache卷映射设置 4)启动jellyfin docker容器 试验了下,打开速度比之前快了很多,封面图也是瞬间刷新,丝般润滑!对比了下白群上jellyfin的响应速度,快了不少,虽然白群上的影音文件少了一个量级!
【210911】花100多升级影音库存储为固态盘,丝般润滑~ jellyfin装在自组的黑群上,电影7000+,剧集300+,音乐专辑800+,另外还有很多教程文件(mix),未打包的漫画图片……上次升级到10.7没做好备份,重建了下数据库。。花了整整一天!而且使用起来卡顿明显,就是经常转圈,偶尔刷不出媒体库里面的文件,图片库大多数时候都打不开。但是目前也没找到比较好的管理未打包图片的漫画服务器。。。 之前以为jellyfin只是重建数据库,有一天,看了下/config和/cache的属性,居然有4个多G。看了下/cache和/config/metadata/library 下都有海量的图片文件,每个都不大,但是数据超级多。我用的是西数的企业盘,还是会卡顿,看来小文件读取是瓶颈了。换固态应该有质的提升~ 立即行动,直接下单SN550 ,所说是性能和发热兼顾的最佳选择,因为后面还想着用它刷刷pt上传,所以入了1T的版本,硬盘矿基本过去,现在价格还算合适,700多点。当然你也可以选择256G版本的,只要300多。或者如下杂牌的128G nvme协议固态,只要100多,装jellyfin也绝对是够用了。 迁移方法也很简单,我是docker安装,直接替换/config和/cache的卷映射即可~分四步: 1)停止jellyfin docker容器 2)拷贝/config和/cache映射文件 3)修改jellyfin docker容器的/config和/cache卷映射设置 4)重新启动jellyfin docker容器
修改web-UI,增加倍速播放功能 一直想要有个倍速播放的功能,这样看肥皂剧的时候可以省不少时间。以至于中间有断时间都copy串流地址到外部播放器看。今天无意搜到,网络播放器的倍速播放,实际上只需要后台一条指令就能实现: document.querySelector("video").playbackRate="1.5" 这样就能1.5倍播放了。但这样还是麻烦了点,需要f12切后台,而且播下一集还要重新调。就想到改一下web ui,加上倍速播放功能。怎么修改,改哪里呢,修改方法其实跟我之前修改透明进度条的原理是一样的: https://tieba.baidu.com/p/7206561682?pid=137649579350&cid=0&red_tag=1044962368#137649579350 这次是想在设置弹出菜单里添加几个倍速播放快捷菜单,经过追踪,发现修改 .\jellyfin-web\components\playback\playersettingsmenu.js 就能实现,主要修改了两处: 1)在点击设置按钮时的弹出菜单响应函数里添加倍速设置菜单 menuItems.push({name:"1.0",id:"btnSpeedUP1",asideText:null}); menuItems.push({name:"1.5",id:"btnSpeedUP15",asideText:null}); menuItems.push({name:"1.7",id:"btnSpeedUP17",asideText:null}); menuItems.push({name:"2.0",id:"btnSpeedUP2",asideText:null}); 2)在菜单响应函数中添加对点击倍速菜单时的播放速度控制脚本 case"btnSpeedUP1":{document.querySelector("video").playbackRate="1"; return 1;} case"btnSpeedUP15":{document.querySelector("video").playbackRate="1.5"; return 1;} case"btnSpeedUP17":{document.querySelector("video").playbackRate="1.7";return 1;} case"btnSpeedUP2":{document.querySelector("video").playbackRate="2";return 1;}
05-11【杂谈贴】r9000p办公极限省电待机时长测试 不要说游戏本不需要续航,这年头为了能最大化覆盖目标群体,笔记本功能都是多功能化发展,不然也不会推出pd充电功能了。 测试机型:R9000P 3060版 首先在网上做了下功课,想要省电,如下几步是必备的: 1)开户显卡混合模式 估计是为了跑分好看,一般默认是独显直连,开启方法是进联想管家,右上角切游戏模式,就能看到切换显卡模式了,只是要重启才生效。 2)Fn + Q切换成静音模式 所谓静音模式就是风扇几乎不转,达到静音的效果,当然想达到风扇静音,基本的原理还是限制cpu和显卡的功率,这个跟我们的节电目标是一致的。而且拿来办公,即使是限制功率的9kp肯定也是够用的。 3)Fn+R 切成60Hz 刷新 其实对于办公,分辨率强于刷新率,切换过后也没发现视觉上有啥差别,鼠标会有拖影?貌似也没发现。 4)更极限一点的,是分辨率改成1080 个人认为没必要,视觉上肯定会觉得糊的,而且办公嘛,高分辨率显示效果要好不少。切低分辨率还是推荐打游戏,特效开高后,桢率不足的时候使用。 5)打开核显省电模式 桌面上右键,点开AMD Redeon软件管理,右上角有个小齿轮,点击进入设置界面,进显卡选项卡,全局图形设置为省电模式。这样会关掉一些对视觉影响不大的显卡功能。例如关闭输入视觉延迟,降低最大最小FPS等,如果想要极限一点,可以根据需要设置更低一点。 6)打开电源管理的节点模式 主要是调低屏幕亮度,然后会把关闭显示器,进入待机的时长缩短一点。 主要是这些了,看下实际效果:86%电量,可待机8小时。 换算一下,满电量,可待机9个半小时。不带电池工作一整天也没问题了。当然我这是刚重启电脑,软件只打开了qq,微信和几个网页的情况下,实际工作状态会开更多的程序和文档,具体能用多久待测试。
【210127】再次优化影库构建方案:mount+硬链 玩pt就像打怪升级,数据装等上去了,自然就像秀一秀肌肉了,但那干瘪的数据拿出来除非是PB级大神,不然总觉得缺乏说服力,还会被扣上“背离pt初衷”的帽子。于是嘛,有些人就开始折腾起影库来,那整齐划一,齐刷刷的海报墙,就像是给装备加上一层幻化,哪怕数据不咋滴,也开始有了点成就感,虽然影库做好了,可能也没认真看几部片~~ 闲话少说~~前面有个贴子给大家分享了硬链接建影库的方法(这个应该是目前比较公认的方案),可总会有人反驳几句,硬链接有什么好,不能跨盘,不能链接目录。跨盘确实是没法解决,毕竟硬链接是基于文件的物理地址的(Inode Index),但目录的硬链接其实只需要把ln改成cp,然后加一个-rl 参数就行了。但不能跨目录,盘豪们可能会说,我100+个硬盘,100多个硬链接怎么管理?所以想到这个硬链+mount的解决方案,其实相当于硬链+软链,但群晖下,软链接在DSM里不可见,所以优化为mount,步骤如下: 1)对做种文件做硬链接,由于影库会修改nfo文件,所以在链接的时候,需要想办法跳过nfo文件,或者先整体链接过去,然后再删掉硬链接文件里的nfo文件。几个盘就链接几次,最后会得到Hlink1,Hlink2,……Hlinkn若干文件。 2)对硬链接的文件进行整理,因为影库搜刮会按照文件类型,电影和剧集的搜刮库是不一样的。我这边是分成了电影、剧集、图片、音乐、MV、Mixed……最后就是 /volume1/Hlink1/电影 /volume1/Hlink1/剧集 /volume1/Hlink1/图片 …… /volume2/Hlink2/电影 /volume2/Hlink2/剧集 …… 盘豪们是不是要建几百个文件了?没关系,活用脚本 mkdir,效率高也不容易出错。 3)在任意位置新建个影库的库文件,例如library。同样需要在里面新建 电影、剧集、图片、音乐、MV、Mixed等文件。然后呢,由于你的电影、剧集……都是来自于不同的磁盘,所以需要进一步在这些文件夹下建立挂载点,最后应该是这个样子: /library/电影/mount1 /library/电影/mount2 /library/电影/…… /library/剧集/mount1 /library/剧集/mount2 /library/剧集/…… …… 4)下面就是进行挂载操作,在ssh下面输入指令,大概是这个样子 sudo mount --bind /volume1/Hlink1/电影 /library/电影/mount1 sudo mount --bind /volume2/Hlink2/电影 /library/电影/mount2 sudo mount --bind /volume3/Hlink3/电影 /library/电影/mount3 …… sudo mount --bind /volume1/Hlink1/剧集 /library/剧集/mount1 sudo mount --bind /volume2/Hlink2/剧集 /library/剧集/mount2 sudo mount --bind /volume3/Hlink3/剧集 /library/剧集/mount3 …… 挂载完毕后就会发现,在影库文件夹里,已经能看到所有的文件了,但是,有个问题,挂载在关机后就会失效,所以需要每次开机都做一次。这个也简单,只需要在/etc/rc.local文件里加上上述指令就可以啦,怎么加就不啰嗦了,只需要一条指令:vi /etc/rc.local 5)最后,因为我们的种子库是在持续下载的,怎么更新呢?我的做法是做种放在upload文件夹,下载放在download文件夹,不定时把download文件夹下的文件硬链接并整理到Hlink里,然后移动做种文件到upload。Mount里的文件就不用管了,会自动更新的。 因为下载下来的文件我一般都需要TMM搜刮再放到影库的,所以我并不想一下载就进到影库里,这个流程我还是比较满意的。
【210123】解决硬链接做影库红种及影库方案简单分享 即想挂pt又想做影库,现在通常的做法是先把种子文件硬链接出来,再改名换目录,挂到影库搜刮。但即使这样还是会遇到红种问题,给出的提示一般是:“Please Verify Local Data! Piece #12577 is corrupt. (3)”,什么原因造成的呢,去看看做种文件就知道了,比如这部《权利的游戏(2011)》看看日期,发现nfo文件的修改日期是1月23日,其它文件都是去年7月13日,肯定是你的影库程序修改元数据了,而这个对硬链接的修改是会同步到原始文件的,解决的办法也很简单,把影库里《权利的游戏(2011)》里面所有的nfo都复制出来,然后再拷贝覆盖回去,具体步骤如下(需要一定linux基础,会ssh和基本脚本操作): 1)定位到你想要替换的目录,比如 《权利的游戏(2011)》 cd 权力的游戏(2011) 2)建个存nfo文件的目录 mkdir ../nfos 3)拷贝所有nfo文件到nfos目录 find . -name '*.nfo' -print0 | xargs -0 -i cp --parents {} ../nfos 4)再把nfos下面的文件拷贝回去覆盖原目录下的文件 sudo cp -rf ../nfos/* ./ 5)删掉nfos文件(做这步时一定要注意当前目录,也不要把命令打错了,误操作导致数据丢失概不负责) sudo rm -rf ../nfos 现在nfo文件和做种文件的硬链接就解除了,如果不放心可以去测试一下,打开影库,手动修改一下元数据,对比一下看看,影库中的nfo文件更新了,但是做种文件日期没变,搞掂!为了保险,你甚至可以把整个影库做一下这个操作。之前的红种怎么办?选中它点击下载,把被修改的nfo文件重新下载一下就行了。
【201110】ALL in boom之路:软路由折腾踩坑备忘 没啥有价值的邀子,就继续给大家分享点折腾经历吧,仅供参考! -----------------本来全编辑好了,但死活发不出去,没办法,一层层楼发吧~------------------- 之前一直用的小米wifi,自从升到千M网后,性能就不够用了,基本上一周要重启个几次。本来想入个华硕的路由器,正在纠结入AC还是AX,见有人说软路由甩他们几条街,看着黑裙长期10%以下的cpu利用率,也觉得太浪费,于是决定开始折腾之旅。整个流程太复杂了(对于我这样的小白来来说),所以只计下大致步骤,和我中间遇到的坑,详细流程大家网上搜搜都有! 硬件环境:自组黑群,华擎B365Pro4+ i3 9100。由于主板上只有一个网口,软路由至少要两个(单臂性能还是有影响),机箱小,空间有限,就没买网卡,直接买的m.2 无线网卡转千兆。反正要开机箱,也顺便把扩展卡和延长线也买了,一起装上。 软件环境:已经装好黑群了,据说用ESXI 可以硬件直通,可以发挥最大性能,想了想还是不折腾了。直接基于群晖VMM(Virtual Machine Manager)装。准备安装的系统是LEDE,我也不知道为什么,看大家都装这个。移动光猫的超级管理员账号上次也找业务员要到了,某宝上找人破解要50,找业务员要,人家二话没说就给了,软路由拨号条件也具备了。 扩展卡如下图,总共250左右,做工都还不错。安装也很简单,网卡要固定一下,sata扩展卡直接塞机箱用绑带固定。装好机后太乱了,(不会理线),就不放图了。
【201030】转移做种全记录 IYUU转种+transmission跳检 说明:基于IYUUAUtoReseed+transmission跳检版,要求有少量的linux基本,至少会root权限登录ssh。本分享仅供参考,由于使用环境的不同造成的后果请自行承担~~另外跳检有风险,有被ban风险,请慎用! 前几天因为扩展硬盘,导致盘符错乱,后来虽然用docker的卷映射解决了,但终归觉得别扭,后来就想着把3台NAS (小猫,ds218, 自组黑群), 8个客户端(2个套件版qb,3个套件版TR,2个docker版qb,1个docker版tr)的保种整理一下。把过程分享一下,供大家参考,当然可能也有走了弯路的地方。 【目前的问题】 1)小猫性能太弱,里面的2.5叠瓦盘也报损毁了,准备弃用。《需要把里面的文件出来,保种也要转过来!》 2)ds218本来是要存照片文档的,之前由于黑群没到位,两个8T盘被塞满了,需要腾出一部分空间,但保留一部分小体积的电子书类的保种,它本来也是24小时跑的,不保种浪费了。《需要把里面部分文件导出来,对应的保种也要转过来!》 3)黑群的盘符错乱了,现在用docker映射,但sata2->sata1 sata4->sata2这种别扭的方式总是别扭,哪天说不定就弄混了,所以《需要把黑群里的做种导出来,利用IYUU的转种文件映射,映射回正确的位置。》 【最终要实现的结果】:把所有的种子分别导到ds218上的套件版transmission 和 黑群上的套件版 transmission。 之所以这样是因为transmission公认更加适合保种,我有个TR保种2000多一点也不卡,另外一个QB保种1000多一点,UI卡得就不能忍受了。除此之外TR能很直观得显示哪些种子黄种、红种,QB只能显示文件丢失,这也是在我转种完成后发现的,有50多个种子的tracker重来没连上过(多数可http -> https解决),但之前用QB做种从来没发现这个问题。当然还有另外一个机缘是找到了可用的transmission跳检测版,294版,正好跟群晖套件版版本一致而且不需要重装原系统,替换transmission-daemon文件即可。断断续续花了一天时间,成果如下:【主要步骤】由于中间涉及到数个客户端之间种子转移,全部描述下来内容太多,大家估计也没耐心看,我就总结一下两个使用场景 <1>本地docker客户端转移到套件客户端 <2>部分种子跨机转移做种 1) 安装跳检版TR(注意目前只能套件版安装,docker版还没找到具体的方法),推荐大家直接到 http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fpan.baidu.com%2Fs%2F1hWR1Wyk9Lfx_yWgw-mGGSw%23umjq&urlrefer=865ab090b44a6cdda79f6c7d5493ce78 下载,然后离线安装。这是CSDN的博主 疯狂金手指 分享的,里面包含各种架构的群晖 跳检TR套件,如果没有你要的版本,还可以私信博主,让他帮你编译,简直良心!当然如果你本来就使用的294套件版,可以直接替换文件的方式实现,如果需要,我可以把文件分享出来。 2)IYUU安装,这里推荐docker方式安装,因为一般的nas系统本身就是阉割版的linux,编译环境很不完整,之前试过装php环境,各种出问题,连最基本的gcc都要现装,而且弄得不好还可能会影响系统的稳定性,像IYUU这种本身使用频度不大的应用,还是推荐用docker的方式安装,进入putty,直接按IYUU官方文档里的脚本安装,这时候脚本会提示出错,原因是没有在/root目录里添加config文件。没关系,本来这步我们也只是先实现套件的安装。套件安装完毕后,可以到DSM里查看docker容器里多了个IYUUAUtoReseed。 3)基本工具装好了,下面就到了真正的转移步骤了,本地机的转移相对简单,不涉及文件的移动,重点有三处。 第一处: 'move' 参数,注意是源客户端设置 0,目标客户端设置2,作者给出的注释有一定的误导性。下面给出config的设置; 第二处:BT_backup参数,这个在配置文件里都设置的/torrents,可以不去改动,但需要你去IYUUAUtoReseed里配置对/torrents的卷映射,这里需要映射的是源客户端的种子文件,如果源客户端不在IYUUAUtoReseed安装的机器上,还需要把种子文件拷贝过来。客户端的种子一般在这几个地方:如果是套件版,可以用winscp找一下(需要root权限登录)Volume1/@appstore/transmission/var/torrents 或者是QB的 config/data/qBittorrent/BT_backup;如果是docker版就更好找了,docker安装一般都需要映射/config目录,到你映射的源文件找下就行了。如果是跨机转,需要把源主机上的种子拷到目标机器的任意位置,然后映射到/torrents 第三处:路径的匹配。如果是套件到套件版是不需要换路径,但套件和docker版,以及跨机转是一定要设置的。例如你把建在volume1上的downloads_v1映射到docker里的downloads,在config里的目录转换应该写成: /downloads => /volume1/downloads_v1 如果不清楚前面是加volume1,volume2还是volumeSATA2,可以在DSM里右键downloads_v1 文件属性,看下它的所在位置。 具体的参数文件设置如下:config放在/root目录下后,到docker里运行IYUUAUtoReseed,如果IYUUAUtoReseed是运行状态,直接restart就行了。转种情况可以把IYUUAUtoReseed的日志里查看,转种的结果最后会发到微信上。如果目录设置的没问题,现在就发现所有的种子都转到TR里,而且开始校验了,由于是转移做种,一版情况下是不会有问题的,所以可以直接用隐藏的跳检按钮 “获取更多peer” 实现当前校验种子的跳检,唯一的问题就是一次只能跳一个!我总共转移了2000多个种子,当然后面我都是只跳检超过20G的,小的种子让他慢慢检吧。 另外可能有人注意到config里有个跳检选项,后来证明至少转到TR,这个参数是无效的,不知道转到QB里是否有效果,因为QB原生是支持跳检的。 4)如果对于需要部分种子跨机转移做种的情况,首先把资源文件根据你的需求转移过来,种子文件全局拷贝过来就行。实现部分种子转移有两种方法,如果你要转的种子不多,可以利用config里的 'path_selector' 参数,也就是先在客户端里把需要转移的种子更换目录做种,比如更换为 /downloads/move,然后在转换的时候设置 'path_selector' => array(‘/downloads/move’)。这样的弊端是更换做种,可能有些种子需要再检测(比如我QB上之前跳检了的种子,都需要重新检)。另外一种情况就是要保留的种子不多,建议你就直接全转过来就行了。这种情况注意 'paused' 参数设置成 1, 'delete_torrent' 参数设成 0,也就是转移过来的种子暂停,转移成功不删除源种子。全局转移后就会发现,能找到资源文件的种子会进入跳检,找不到的自然就变成0%待下载状态,把这部分种子删掉即可。 5)待所有种子检验完毕,可以先到源客户端里暂停掉已经转移走的种子,在目标客户端里启动所有种子。待目标客户端稳定作种一段时间后,再删源客户端里的种! 6)以后的使用逻辑是,主要用黑群QB刷上传,种子热度降了后,转移到TR,同时辅种。自行判断辅种文件,根据需要跳检。因为TR是在线跳检(可以检测的时候跳过),相对QB的添加时跳检,跟IYUU辅种配合效果更佳!
新人求助,NTFS硬盘挂载黑群,盘符乱了,怎么恢复? 由于群晖的硬盘格式WIN识别起来比较困难,所以想到修改成eSATA挂载,这样可以识别NTFS的硬盘。我的黑群有6个盘位,按网上的教程修改成了3sata+3esata的模式。 之前有五块硬盘,2sata+3esata,昨天新入了个HC530,放到sata硬盘位,发现不能识别,重启后也不行。难道是黑群不稳定,想着也用esata方式挂载吧,这样还灵活一点。 于是手贱又去修改了 /etc.defaults/synoinfo.conf,改成了 2sata+4esata的模式,把HC530先用硬盘盒接到win系统下格式化为ntfs,插入黑群。重启后2+4的模式生效了,但是发现之前的盘符都乱了(之前的esataShare1-2, 2-2, 3-3现在变成 esataShare2-2, 4-2, 3-2),导致的结果是挂的PT种子全红了。 想想可能的原因,由于之前3+3模式是:1-3盘位是 sata, 4-6盘位是esata。后来改成1-2 sata, 3-6 esata,所以HC530是插到到3个盘位的,这样重新挂载硬盘的时候,HC530的位序是在第1位,所以导致它变成esataShare1-2,把之前的盘符都顶到后一位。 试着解决吧: 方式1)调整硬盘位序,想着把HC530接到盘位6,其它的盘往前挪一位。结果没有,似乎系统能记住盘符号。 方式2)挂载方式修改回去,就是恢复成原始状态,硬盘挂不上去没关系,做种不能停呀。重新把挂载方式修改为2+4,把HC530先拔出来不接,其它3个盘恢复原来的位置,重启。结果还是 esataShare2-2, 4-2, 3-2。看来这个盘符号还蛮顽固,不冲突的时候它并不会变 应该是系统哪里有记录?? 问题:请问这个记录在哪里,有没有办法手动修改,如果不行,可能我只能去找几个不用的盘,拿来先顶掉 esataShare1-2 和 esataShare3-2 在系统里的记录,然后再装回原来的盘? 如果有大佬知道解决办法的,还望指教,当然我也会持续测试,问题一定要解决的!白天没空,晚上回来弄吧!
【201024】技术求助,NTFS硬盘挂载黑群,盘符乱了,怎么恢复 由于群晖的硬盘格式WIN识别起来比较困难,所以想到修改成eSATA挂载,这样可以识别NTFS的硬盘。我的黑群有6个盘位,按网上的教程修改成了3sata+3esata的模式。 之前有五块硬盘,2sata+3esata,昨天新入了个HC530,放到sata硬盘位,发现不能识别,重启后也不行。难道是黑群不稳定,想着也用esata方式挂载吧,这样还灵活一点。 于是手贱又去修改了 /etc.defaults/synoinfo.conf,改成了 2sata+4esata的模式,把HC530先用硬盘盒接到win系统下格式化为ntfs,插入黑群。重启后2+4的模式生效了,但是发现之前的盘符都乱了(之前的esataShare1-2, 2-2, 3-3现在变成 esataShare2-2, 4-2, 3-2),导致的结果是挂的种子全红了。 想想可能的原因,由于之前3+3模式是:1-3盘位是 sata, 4-6盘位是esata。后来改成1-2 sata, 3-6 esata,所以HC530是插到到3个盘位的,这样重新挂载硬盘的时候,HC530的位序是在第1位,所以导致它变成esataShare1-2,把之前的盘符都顶到后一位。 试着解决吧: 方式1)调整硬盘位序,想着把HC530接到盘位6,其它的盘往前挪一位。结果没有,似乎系统能记住盘符号。 方式2)挂载方式修改回去,就是恢复成原始状态,硬盘挂不上去没关系,做种不能停呀。重新把挂载方式修改为2+4,把HC530先拔出来不接,其它3个盘恢复原来的位置,重启。结果还是 esataShare2-2, 4-2, 3-2。看来这个盘符号还蛮顽固,不冲突的时候它并不会变 应该是系统哪里有记录?? 问题:请问这个记录在哪里,有没有办法手动修改,如果不行,可能我只能去找几个不用的盘,拿来先顶掉 esataShare1-2 和 esataShare3-2 在系统里的记录,然后再装回原来的盘? 如果有大佬知道解决办法的,还望指教,当然我也会持续测试,问题一定要解决的!白天没空,晚上回来弄吧!
【200827】踩坑:群晖 Transmission种子连接过多导致不能上网? 2盘位群晖,两个8T盘满了,还好提前购入了两块3T小硬盘,之前有个用吃灰的硬盘盒正好用上。谁知道群晖外接硬盘在docker版的qb上不稳定,老是IO出错,可能docker版用的是映射路径不是物理路径的关系吧。后来试着用套件版的Tr,套件版的TR是可以下载到物理路径的,用起来貌似不错,没出现IO错误。一口气拖了60多个种子(难得全站free),速度很快飙到17M(不要嫌弃,移动内网小水管,只有这个速度了),结果TR, QB全黄种,网页打不开,媳妇京东刷不了货了,孩子汪汪队打不开了。。。全乱套 当然他们不知道是我pt下载惹的祸 随便编一个理由,锅就甩给路由器了,顺便吐槽一下移动,为下一步换电信网络做准备 网上找了找,说是TR没有设置限速,说是限制到比带宽低一点就ok,于是手动限制到15M,不行?10M不行?最后限制到5M,勉强能用了,偶尔还是打不开网页,而且网页报的是ddns错误?这貌似跟带宽没有关系,那除了带宽还有啥?只有连接数了,看看60多个种都在跑下载,限制成最多同时下5个种吧,正常了!折腾了我一整天的问题终于解决了,可是下午剁手买的 810A+华擎B365 已经在路上了 总结一下: 1)TR下载需要设置带宽,比实际带宽低一点就行,另外要同时设置连接数,感觉10以内应该都可以。 2)今天还发现TR下载多了会出现种子名称显示错乱,黄种不变绿等问题,关掉页面重开就好了(谁说TR保2000种稳如狗的)
【200813】满月➕8级了,却反而不敢发贴求邀了 一个月前,因为感觉跟贴求邀被大佬无视了,发贴求安慰,得到很多吧友的安慰,也得到很多大佬的建议 (比如 @一世孑然 的辅种建议),在此表示感谢,特别还要感谢 @爱生活爱PT 的馒头邀请。当然那件事,后来也证明只是场误会,发私信专门道过歉,这里也再次对馒头大佬表示歉意。也正印证了前几天某位大佬说的,“现在的新人心也太急了”。可能一方面是心急,另一方面是无知者无畏吧,所以当时立下flag,满月➕满8级再来求邀,现在虽然条件满足了,看着羸弱的数据,反而不好意思求了(可能知道的多了,反倒有所敬畏了)。前面杰西大佬和东哥海量发邀,也只敢弱弱求个tlf和tccf,早上有大佬发wiki大站,虽然1个月萌新也猜到哪个站(其实还有点小得意),但也只敢默默顶个贴,点个赞了。 满月了,也来总结一下。数据方面,移动小水管,虽然nas24小时做种,现在数据实在不忍直视,唯一能看的是25T+的保种。在我的理解中保种可能是PT生命力得以延续最重要的因素了,热种抢上传其实还只是刷数据,而且热种除了自制首发,好像除了pt,能找到的地方也不会少。但当你发现多年前的冷门资源还有人默默保种,你才会明白pt的强大。所以也希望大家多多保种,特别是像我这样刚入门的萌新,拿到邀,总是会对考核魔力值发愁,其实下载几个free种,保种,时魔就上来了。 回到正题,关于发邀和跟贴求邀,其实也不怪跟帖求了,大佬不搭理。我也发现有好些人不看吧规,不看发邀人的要求,甩出一堆截图“随缘求”,更有甚者,还P数据的。这样影响其实很不好,这样的回帖多了,发邀大佬就会直接忽略了。想想自己当时都是诚心求邀,仔细研究发邀大佬的要求和吧规,求完都是一遍又一遍刷新,刷新帖子,刷新邮箱,一次也只求一个,但可能当时对大站,小站完全没感觉,大佬可能虽然没明说,内心其实对数据还是有要求的,所以直接忽略跳过也能理解。但是也还是希望发邀大佬,如果抽得出时间,给诚心求的萌新一点宽容,一个简单的拒发理由就行,当然那些不看要求“随缘求”的可以直接跳过了。 最后关于最近吧里的氛围,无论是对pt环境还是贴吧环境,相信大家都是爱之深责之切,也希望大家多点宽容,多往好处想吧~~最后继续立flag,上传数据达到20再考虑发贴求,上10再考虑跟贴求(目前6+)~~~但 磁、岛、套这样的大站还是心存敬畏吧。我这小水管感觉都只能捐入了。。。
1 下一页