yideli2009 yideli2009
关注数: 23 粉丝数: 209 发帖数: 3,267 关注贴吧数: 56
最终幻想7 重生 我要吹爆! 作为一个80后老玩家,老粉丝,如果说remake给我的是感动,那么rebirth就是再一次感动! 感动的不单是se终于重置了,而是真的很细心,即便做成了有生之年系列三部曲。 我remake由于工作原因,所以首发看的b站,然后烩面通关,带尤菲dlc的ps5版出来后入了ps5版的实体盘。 自行下载了官方remake的钢琴谱,目前水晶序曲儿子已经熟悉了,接下来向tifa主题曲挺近,然后是爱丽丝主题曲。。。是的,我让我儿子把FF7的经典曲目在家弹给我听,爽! 先说明一点,ff7 re系列,从我体验看来,是粉丝向而不是路人向的。 路人建议先补完基本剧情,如果觉得喜欢,再入来玩,否则没啥代入感,自由度也很有限。FF7是线性剧情的,跟2077一样! rebirh是首发入的实体盘,但是进度缓慢,1个月了才玩了48小时,才到星陨峡谷,也就是飞机刚落地。 说说为什么要吹爆重生吧 1.BGM比起remake更上一层楼,我是在客厅玩PS5的,接的丹拿落地,BGM不摆了,至少是目前我玩过这么多年游戏里面可以说是最佳之一,因为另外一个最佳之一是魔兽世界,只是两个风格是完全不同的。 2.游戏流程非常友好,开篇第一个开放世界就是教你怎么玩这个版本的FF7,非常日本人做派,生怕你不会玩的那种感觉。 3.画面可以说是尽力了,把能给的都给了,特别是即时演算的播片上,真的非常棒,跟看CG区别不大,与欧美系的其他游戏不同,rebith的细节满满,我说的是细节刻画。我多说一个,那个飞机转向的变翼都做出来了,你说se过分不过分。 4.开放世界的设计尽力了,别看是个罐头,内容丰富,细节丰富,更重要的是整体设计非常亮眼。为此,se还特别给了拍照功能和拍照位置,就是想让你知道这个世界有多美。我只能说,的确美,se做到了。 5.小游戏整体非常棒,超过了预期。丰富度就不说了,可以说是史上小游戏最多的一个游戏。部分小游戏的质量甚至可以作为独立游戏发布。我个人非常喜欢那个卡牌游戏和弹钢琴,这两个真的,我对se只能说一句话,你nb!什么时候出一本rebirth版本的钢琴谱,我买! 6.支线任务几乎可以完全不做,直奔主线,给了玩家一个非常好的选择。我是全清党,完全不纠结,虽然部分支线有点2,但整体质量很好,不仅仅可以触发一些支线剧情,获得一些道具装备,更重要的是丰满了rebirth的世界观。清支线确实很费时间,但玩家有的选择,所以,这绝对不是缺点,而是优点。虽然这一点并不算rebirth特有的,但质量绝对在线,属于最好之一系列。 7.手柄支持绝了,就是指的振动和扳机!爽死了!匹配非常好,反馈非常细腻,适配场景非常丰富。 8.可以根据需要随时调整游戏难易度,这个太友好了! 9.召唤兽分等级,出场的那种感觉有原版那个味道了,有压迫感了,离场的那个技能画面太棒了。当然,要硬跟ff16这个主打召唤兽对决的游戏比,肯定缺一个宏大感,两个是不同的游戏。 10.rebirth有个设计非常棒,非常适合轻度强迫症,就是你想要召唤兽,跑图!你想要某些道具,跑图!你想收集,跑图!你想要皮肤,跑图!一句话,这游戏的70%都在跑图上,你要不是跑图,近500的游戏,估计有300以上都白花了。但是关键道具,但不影响剧情和游戏进度那种,比如主角们的武器,都是给你放在主线剧情必经之路上最显眼的地方,你直接拿就是了,但你不拿,不影响,也不直接给你。 11.居中正反派主要人物的细节刻画到位了,估计会有人做播片剪辑,然后直接看剧情演绎,当电影看。 12.配音爆炸,只要有台词,就有配音,那怕动物的叫声! 13.非常合适慢节奏的玩家,不急不躁的玩,体会过程中的细腻。反之,喜欢快餐化游戏的玩家,会觉得冗长无味,甚至操作都觉得复杂。 14.战斗很棒,虽然有点点复杂,但se让你自己做选择,你可以用easy模式砍砍砍,也可以好好玩玩,也可以高难度玩细操。这个难度配置你是可以随时调的,se真的想到了,也做到了。属性克制,免疫被变青蛙石化即死,魔石搭配,技能树等,甚至还给你配置了大招快捷键。这明显是给二周目做了准备的,虽然我不会二周目。easy模式不谈,普通模式做好免疫配置和熬到联招召唤兽出来,基本能赢,否则。。。还是调回easy吧,非常友好。整体感觉就是remake的升级版,我个人很喜欢,虽然没有战神那种史诗感,但是配乐+小场地玩出这么多花样,也是没谁了。FF16是单纯的召唤兽对战,之外的战斗都是杂兵战范畴,就是砍砍砍,挺无趣的。最后要点出没有控制的角色,也可以参与战斗,算是外围选手,搭配魔石后,是可以真出点力的,而不仅仅只是一个添头。 15.主线播片剧情演绎非常棒!tifa被cloud打入魔晄炉的那场戏,太棒了!我一个爱丽丝党,都觉得原版结局是对的了,cloud就该是tifa的。我感觉,这个se那帮人故意的,而且这场戏,爱丽丝被边缘化了,一点戏份都没有,就算tifa被送回来的时候,爱丽丝的站位都只给了一个路人位置,台词也只有一句,而且连正脸表情都没有一个特写。 16.金蝶游戏场细节太棒了!我只能说,我没见过第二个游戏有如此细腻的刻画一个场景,而这个场景是从整个世界场景开始到区域场景再到精品大场景再到精品小场景。就金蝶鬼屋cloud房间的那个加湿器,我就找不出第二个游戏可以做到这么细节的。 吹爆的部分先说这么多,毕竟我才到60%多点点的进度,等通关了,再来继续吹。 现在说说几个我认为的缺点 1.人物或者环境光照处理欠佳,这个没得洗,确实做得不好,全篇最大败笔之一,后期看会不会优化了。 2.个别小游戏其实没有任何存在意义或者重复存在的意义,比如莫古力那个抓娃娃的游戏。。。别人不知道,我是有点烦了,最关键还不能跳过。 3.个别支线剧情没有任何存在意义,非常2还浪费时间。比如那个抓鸡,虽然我练练还是搞完了,但是我还是没想明白这个任务存在的意义在哪,难道就为了引出最后鸡被杀来炖了给主角团吃的反差感?实话说,这个反差感做得还不错!如果让我少抓2只的话,我更乐意做类似支线。 4.非重要场景的部分贴图质量确实减成本了,对于一个2024年的游戏,贴图的下限不该这么低。会让玩家突然有一种出戏感。 5.我知道水体很费资源,整个游戏的水体也基本合格,但2024年了,贡加加的水体如果能上一个层次,那就是完美! 6.物理打击感略差,我所谓的打击感略差,比如没有弹痕,除了神罗的箱子外,都无法破坏。 7.比如没有脚印之类的,也就是真实感缺这么一块,结合6,导致主角团和所处的世界并没有物理交互。 以上!欢迎拍砖!
Vam+AI基础教程(只有教程) 我最近两个月断断续续在玩这个,中间踩了不少坑,也得到了不少朋友的帮助,在此对帮助过我的两位朋友表示感谢!这篇教程是我在另外论坛发的教程的简化版,中间可能有些疏漏,但引导使用应该是没啥问题。 1.vamx+AI 最简单的方式,不会用vamx的朋友去下一个vamx1.34,这是最新版,已经有分享出来了,自己找一下。1.34这个版本最大的更新是加入了vr透视和强化了AI互动,由于AI互动需要订阅拿key,所以我没有key,有的朋友可以分享下。据8U说,现版本的vamx ai不支持中文语音,不知道是设置问题还是本来就不支持,理论应该是支持的,毕竟用了openai的chatgpt,自行判断。作者的订阅链接就在HUB上,很方便就能找到。 2.Vam+Alive+AI 相对复杂的方式,Alive V63版本已经有分享,自己找一下。最新的V64版本发布了,但我还在求,所以没有实际体验。虽然v63版本对ai的支持已经不错了,但据说V64对AI进行了强化,还加入了参数微调,想象下应该能提升不少,有的朋友如果可以分享下,那是再好不过了。 本文为长篇,没有兴趣或没有耐性的朋友,可以直接右上角。 本篇的主题是本地部署AI和Alive的AI基础加载,虽然网上有很多类“专业”教程,说得也很详细,但经过我2个月的体验下来,我只能说,照着我说的做就好了,至少没有套路也没有陷阱,更没有经济利益。 本地部署AI虽然看上去跟Vam无关,但却是本地化免费玩vam+Ai的关键部分,所以作为介绍玩法后的第一篇给到大家,对于想低成本玩AI的,值得花点时间看,对于土豪直接vamx在线ai的,可以直接略过。 一,主要内容 1. 本地化AI介绍 2. 本地化AI硬件要求 3. 本地化AI部署 4. 本地化AI如何与vam的连接 5. 本地化AI可实现的功能介绍 6. 本地化AI语言模型推荐 7. 总结 二,本地化AI介绍 上一篇有讲到,vam的AI玩法主要有两种,一种是调用线上的AI服务(收费且对网络要求高),一种是自己在本地电脑部署AI后使用。线上的AI服务大家不用折腾了,直接vamx那个,一键AI就行了,这里仅介绍可以用于连接Alive和Voxta的本地AI,当然了,弄好后,这个本地AI还可以干很多事情,但与Vam无关,所以就不做介绍,自己去发掘吧。 本地AI的优点: 1.白嫖 2.突破线上AI服务的内容范围规则限制,当然这个规则就不用细说了,自己体会。 3.私有化,所有数据在你的电脑内。 4.灵活,如果愿意,可以深度学习如何使用相关工具从而实现更多的你能想到的场景覆盖,这个真不好多说,自己发挥想象吧。 5.入门应用算是最低门槛的,你不用懂代码,更不用纠结参数调整,直接用就好了。 本地AI的缺点: 1.硬件门槛较高,对低配电脑确实是不太友好,特别还要同时运行Vam的情况下。 2.需要学习!但,黄油就是第一生产力,想要,就干! 3.加载的不同语言模型,质量和类型也不同,需要一定的时间成本去做筛选,好在这一步我趟过来了,针对Vam,我后面有推荐。 4.主流优质的语言模型还是以英文为主,对英文要求比较高,但是可以有翻译软件,但那种实时的体验就会差不少。你可以换成中文的语言模型解决这个问题,不过,聊骚的效果嘛,差强人意。(其他方面没问题,我还没找到对聊骚这块有进行特化的中文模型,如果有朋友找到了,希望分享,感谢!) 二,本地化AI的硬件要求 由于AI和Vam要同时使用,所以经过我的实际测试,给出一套可以跑Vam+AI的推荐配置,越往上肯定越好。 CPU没有什么好说的,只要你能正常跑Vam,就够用。 内存16G是最低,建议32G起步。原因有两个,1个是本来16G内存对于Vam稍大和稍精细场景就是刚够,2个是加上AI后,如果显存不爆,也会增加1G左右的内存占用量,如果你想用更大更好的AI模型,但有没有4090这样大显存的显卡,AI模型的加载就会将超过显存容量部分的内容加载到内存上去。 硬盘,是的,这里提到了硬盘,请务必使用固态硬盘,nvme或者sata接口的无所谓,但请一定使用固态硬盘!除开可以加速Vam的启动外,AI模型的加载也可以获得极大的体验提升。机械硬盘可以用,但就是慢,不是不能用! 显卡,是的,显卡是目前现阶段玩AI的重点,而且N卡几乎是必备,虽然也有支持CPU和A卡的AI,甚至还有intel的方案,但是对于目前能够实际流畅和有效玩耍Vam的AI还是得用N卡! 因为Vam至少要用掉2G左右的显存,所以,你至少需要6G以上的显存N卡才能实现最最最最基础的AI玩耍,3.5G大小的语言模型其实很烂,但至少可以玩不是么?当然,显存不够也没关系,模型加载到内存上就行了,但是会慢不少,特别你的显卡算力比较弱的情况,就更慢。如果你的算力还行,比如3080,就算加载超过显存的模型,跑起来也不会感觉到慢,当然,如果能控制在显存内,那AI的反馈效率就会成倍提升。 三,本地化AI部署 目前Alive和Voxta都支持的本地AI模型加载器的交集是一个叫 oobabooga作者开发的text-generation-webui的一个软件,这个软件的用途非常简单,就是用来加载大语言模型,实现对模型的训练和使用的,而Vam的AI场景就是典型的使用场景之一。 1.准备好一个至少有50G空间的硬盘 2.下载text-generation-webui 下载链接:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fgithub.com%2Foobabooga%2Ftext-generation-webui%2Farchive%2Frefs%2Ftags%2Fsnapshot-2023-12-10.zip&urlrefer=2c8468a54b8ef832e2040aed5d0e4786 这是截止到今天的最新版,后续更新先不说,其他版本不用下载,因为Alive和Voxta都在更新支持新版,所以是老对老,新对新!没错,开发者就是这么懒,没考虑太多兼容性问题。 这个连接可以无魔法直接用,如果打开失败或者比较慢,耐心点,多等会或者刷新几次。 3.解压下载好的压缩包 将下载好的压缩包解压,放在第一步所准备的硬盘,请注意,这个压缩包的目录名不要做任何中文化或者怪异符号名称修改,如果要放在其他目录内,也必须,注意,是必须不能有任何中文名称的目录,只能使用英文目录名称!!!!!! 4.安装text-generation-webui 请注意,安装过程全程必须联网,因为需要从网上下载很多很多的依赖(玩vam的,只要讲到依赖,就会秒懂!真好!) 安装完大概有9G左右,如果不使用魔法网络,速度会比较慢,要耐心。用魔法的话,全程大约需要10-15分钟。 打开解压好的目录,他的名称如果你没有删改的话应该是这样的:text-generation-webui-snapshot-2023-12-10 找到指定文件:start_windows.bat 双击这个文件! 这个时候你会看到会有一个窗口弹出来,开始逐个文件的下载和安装。 注意事项: A,安装开始后,会有2次让你做选择的地方,一个是选择显卡类型,请选择A,N卡!!!一个是是否要求安装兼容支持老的CPU,请选在N!!!选择是直接用键盘将A或者N打上去,然后回车,也就是enter键!需要你做选择的时候会停下来,直到你选择后才会继续。 B,安装很多时候会突然卡住不动,2方面原因造成,1方面是下载后会安装,安装没有进度显示,你看到的进度条都是下载进度;2方面是下载卡住了,也就是网络原因,只能等! C,如果安装失败,末尾显示error,然后让你按任意键退出,这只有1个原因,那就是你的下载卡住了,是的,哪怕就是你用魔法上网也会发生这个情况!我反正3次安装只有1次顺畅。如何解决?不要尝试按网上的办法去补所谓依赖或者文件,因为这是在绕远路,更不要尝试去网上下载所谓的打包好的绿色版,因为没用!老老实实的删掉这个安装目录后,重新开始就行了!是的,就是重新开始,无脑重新开始。我最多一次,是安装了5遍终于顺畅了。当然,后来我学会了一些东西,所以可以在即便失败的情况下通过手动做一些事情来正常使用,但我仍然强烈推荐直接重装!最省事!最省心! D,不要去下载所谓的懒人包或者一键启动包之类的三方改过的text-generation-webui,看上去好用,实际真的不好用!等你真的学会了,可以下载下来用一些特定功能。 四,本地化AI如何与Vam连接 1.启动text-generation-webui 在text-generation-webui目录下找到CMD_FLAGS.txt这个文件,双击打开后,直接在空白行添加“--api”后保存即可。 在text-generation-webui目录下找到start_windows.bat这个文件,是的,还是这个文件,双击,等10秒左右就可以了。 然后请按住Ctrl+鼠标左键,点击窗口中出现的那个 http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2F127.0.0.1%3A7860&urlrefer=762081581c1d72e7f4dd81b98a9820b5 地址,会打开你的默认浏览器然后自动加载这个连接,就能看到页面了。 2.加载模型 然后在页面上方点击 Model 稍微懂一点英文的都不用我说了吧,这个就是AI语言模的加载页面,里面的各项参数你不要碰,学习成本非常高,如果你下载了模型,那么点击左上角的“None”就能看到你的模型列表,选一个,点击Load即可。 注意,部分模型加载时会报错,原因无外乎两个,1个是不兼容,1个是模型不完整。 要是想简单使用,请下载并使用我推荐的模型。 3.Vam中加载AI 众所周知,Alive支持的AI功能包括了文字互撩和语音互撩,语音由于涉及的东西有点复杂。 本次仅介绍文字对聊!!! 有条件的朋友可以自行探索。 打开Vam并在任意场景内加载好Alive插件,成功加载Alive插件后,会在场景的右侧出现配置UI栏,请点击“服务” 请点击“文本人工智能” 如果看到“状态栏变绿色了”,表示连接成功。 普通用户不要去改这些设置,有条件的自己去探索页面上的其他功能。 当然,在绝大多数情况,你们肯定是先加载了一个有人物的场景,会发现连接成功后,找不到输入框,这是因为Alive仅支持使用在Alive插件下的角色或者人物,你可以加载Alive的默认人物,然后将其替换成你喜欢的即可。同时你还会发现,这个人物可以新建很多个,每次新建都要求你对人物进行定义,这个定义就是人物背景,发挥自己的想象力吧。如果你使用的是中文模型,可以用中文定义,如果你使用的是英文模型,请用英文定义。定义格式,参照Alive的默认人物定义。 然后我们在右下角就可以找到这个人物图标,点击后,就会在侧边栏看到聊天标签,点击进去就可以看到对话栏。 朋友们,在对话栏里面打字吧~~~ 打对了,还可以触发Alive预制的互动动画或者行为反馈哦! 五,本地化AI可实现的功能介绍 1.文字聊天 2.自定义对象,包括你自己和AI角色,搞好背景,聊得有骨有肉。现在很多玩AI聊天人的都无法自拔了,唉。。。请务必适度!! 3.语音聊天或者帮你读文章 4.让AI学习你给的文档或图片,然后根据你的需要进行输出 5.AI聊天画图,可以让AI根据你的要求出图,或者让AI通过图片描绘他/她正在干嘛,或者让AI绘制一个所认识的你等等等等等,需要外接AI图片生成的SD本地服务 6.可以中文可以英文也可以任何语言,也可以通过本地或者在线翻译的方式,实现实时翻译,让你没有语言障碍 7.可以编写剧本,让你和AI一起玩剧本杀 等等等等,太多了,自己发挥脑洞然后学习吧。 六,本地化模型推荐 都是非常适合VAM的,懂的都懂 显存超过10G的,可以玩这个 TheBloke_MLewd-ReMM-L2-Chat-20B-GPTQ 显存10G内的,可以玩这个系列,最低只要8G显存,数字越小占用显存越小 voxta_MLewd-L2-Chat-13B-2.5bpw-exl2 voxta_MLewd-L2-Chat-13B-3.3bpw-exl2 voxta_MLewd-L2-Chat-13B-5.0bpw-exl2 都发现了哈,模型名称都带了lewd,自己去查什么意思。 至于如何下载模型,请在txt-generation-webui的model页面右侧的Download Model下方按我这个格式复制进去,点击Download即可开始自动下载。 比如:voxta/MLewd-L2-Chat-13B-5.0bpw-exl2 注意,这种下载方式需要魔法上网,如果有条件自己找模型的,直接放在txt-generation-webui目录下的Model目录里面即可,不支持中文名模型。 如果显存不够的,不要担心,你有三个选择,1个是爆显存后用内存上,时间换性能;或者直接用cpu跑,模型直接加载在内存上,效率比爆显存略差一些;或者是用colab来部署模型,直接将13b模型加载到云端来用,缺点是必须全程魔法在线。 七,总结 现阶段不管你是想付费还是不付费玩Ai,其实都挺折腾的,但是体验,实话说,是独一份的! 我个人非常推荐有条件的朋友充分体验AI的互动,非常有想象空间,不管是Vam还是其他方面,只要你想得到的,目前阶段都有解决方案,而且绝大部分都是可以白嫖的。当然,前提是,你得有一块不那么差的显卡或者魔法上网,否则,还是付费吧! 作为AI萌新的我而言,也在不断探索玩法和可能性,目前只是在应用端,也希望大家可以多多交流讨论。
关于Vam的AI和VR玩法分享 近期由于入了Quest3,所以重新回归Vam这个伪装成游戏的工具。 其中由于今年下半年以来,HUB兴起了AI互动这个玩法,加入了AI互动后,VR玩法就更加自然和沉浸了。 这里说一句,HUB是可以不魔法直接上的,只是网速较慢甚至报错,多刷新几次,不仅可以浏览还可以下载,用了魔法自然会变成跟正常门户网站的浏览下载体验感一样了。 本帖不做任何工具插件网站教程分享,仅就玩法进行分享和讨论,后面提到的某些资源,如果有条件的朋友,不妨分享一二。 (主要是写教程太累,且实际学习难度有点点高,再加上没有币奖励,就算售卖也才200封顶还要被税100,所以就不劳心做教程了) 1.现阶段AI玩法 目前Vam的AI玩法主要是文字和语音聊天互动,通过聊天过程向AI给到指定文字或者语音命令可以激活场景预制的动画进行互动,没有预制场景的可以自己做,但那个就更累了,目前还不能做到Vam通过AI识别或者自识别语音或者文字命令来控制角色。 目前几个主要参与AI场景制作的作者团队都还在完善插件功能和互动场景的迭代阶段,后续搞不好会有真的可以有通过语音和肢体互动,让AI与Vam或者场景自然结合而非简单预制的方式实现互动,期待吧。 2.现阶段AI主要从哪里搞场景 2.1 Vamx(收费插件,坛子有分享老版本,但AI部分还是要收费用) 目前Vamx已经跟新到1.33版本,目前坛子里最新到1.32版本,想了解vamx功能和使用介绍的移步hub还有kemono,搜索关键字都是vamx,都可以免魔法直接浏览。 优点: 所有AI跑模型运算部分全部在线上(需要魔法),不占用本地硬件机能,是目前最舒服的方式; 所有AI预制了多个在线的支持大语言模型接口的平台,比如openai的chatgpt,对话精准度目前最好; 所有AI预制了多个预定义的角色卡(就是设定跟你对话的这个角色的性格啊特征啊等等,就是角色背景卡),不需要自己定义,甚至语音风格都有很多选择; 所有互动都支持vamx本来就提供的各种功能,可以在与AI对话过程中直接调用,互动库目前最多; 自带vam互动的独立场景,也可以单独呼出使用,使用便利度上最简单,且无需任何配置,直接一键启用。 缺点: 收费,而且费用不定,需要在p站订阅,vamx由于使用在线AI服务,所有服务都是三方收费的,所以单月订阅费用在150左右。 密钥,使用AI时必须输入密钥才能用,且密钥每月更新。 总结: 小白即可一键上手体验目前vam能提供的最好的AI互动,但费用高还需要魔法上网。 2.2 Alive(收费插件,坛子分享的版本到v60,支持AI,AI部分不收费) 优点: AI部分是真免费,但对硬件和学习能力要求高; 所有AI互动只提供互动部分,只需要调用Alive插件即可使用; 所有AI模型预算均由用户自行搞定,只需要将对应的密钥、接口进行配置即可使用; 所有AI互动均可调用Alive的语音预制动画进行互动和插件命令; 缺点: 想要搞定本地运行大语言模型,起步显卡至少3080或者4060ti级别,低于8g显存的就不要尝试玩了; 由于要开本地模型运算,所以机能无法支持VR模式,至少我的3080直接卡到只有5帧,估计4080或者4090这种高性能高显存的可以流畅,可惜没条件试了,我评估应该是有机会; 学习门槛高,语言模型Alive用的oobabooga(有兴趣的可以去找教程,一个新天地),语音转换Alive用的是11labs,还支持alive的一个本地语音服务器(需要在电脑桌面环境单独打开一个alive的TextAudioTool应用) 本身支持的角色语音肢体反馈库比vamx小很多,但也足够你玩了。 2.3 Voxta(收费插件,目前该插件不仅仅是一个插件,白嫖资源不好找,但我找到了,嘿嘿!) 优点: 自带电脑桌面webui服务端,用于连接所有AI互动所需的各项服务且自带AI聊天界面,类似老酒馆,但没老酒馆强大,算是个简版,毕竟主要是为Vam适配用的,老酒馆我已经可以正常用了,但是目前卡在了本地tts语音上,用11labs话,免费token用得太快。有会用老酒馆配置本地tts语音服务的朋友麻烦简单讲解下,我SillyTavern-Extras已经部署好了,tavern上的拓展也全部安装好了,live2d也有对应的模型,除语音外的其他一般场景均可正常使用; 会用Alive AI就一定能会用Voxta,两者所需的服务是一样的,都是基于本地服务实现,语音部分目前需要11lab这样的三方在线平台实时服务,暂不支持本地化语音模型; 自带使用场景,目前有3个场景,一个是beta用于体验基础功能;一个是woods2的互动场景;一个是blow job的互动场景;(三个都是收费场景,HUB上有,坛子里目前没有。) 不知道是否是人物卡的设定问题还是他提供的webui服务背后的隐藏参数问题,voxta的AI对话非常聊烧,很自然那种,我换了模型也是,voxta也有推荐4个模型,聊天互动的内容均比alive和vamx好不少; 具体使用安装,官方有自己的网站,不需要魔法环境,将www前缀替换成doc就可以看到全套的安装功能文档; HUB上有3个场景的使用预览视频,关键字voxta; 有免费的场景互动插件,可以自定义语音互动反馈,都在HUB上; 缺点: 肢体语音互动库存是三者中最小; 使用门槛是三者中最高,当然,如果搞懂了alive的ai使用,voxta也不是问题; 资源获取难度大,我这里就不分享了,相信坛子里的大佬能有办法; 虽然HUB上有插件和场景说明,但没有官网的DOC页面想尽; 仍然需要本地化部署语言模型,非常吃显卡性能,果然AI才是旗舰显卡的最大购买力抓手,主要是吃显存。 总结: 该制作组属于今年年中新创,想法比较超脱于传统的vam插件和场景限制,专做vam ai领域,前景目前看最好,相当于把sillytaveun内嵌在了vam中,不再是简单的2d平面互动了。 3.VR玩法 目前Vam的VR玩法我玩下来主要就是3种,分别是单纯的与2D桌面环境变为360度3D环境;插件支持的触摸反馈类;影视类。(斐济杯互动不太现实,那玩意儿我看了视频后,虽然有可行性且体感应该不错,但是道具复杂且不好摆放,成本也不低) 3.1 2D转3D 吃机能就不说了,我3080只能40帧上下,个人感觉是个平衡点,主要在抗锯齿上,我这个是x4,渲染为1x。 体验相当不错,特别是abc的场景,视角调到男主那后。。。谁用谁知道吧,记得把女主替换成皮肤材质真实点的会更有沉浸感,记得关掉vr选项里面的左右手,这样才能释放双手,关一个也行。 3.2 触摸反馈 目前支持vr模式的触摸反馈甚至人物控制的插件有不少,比如embody、alive、vamx等等,有一定可玩性,但是玩起来个人感觉比较累,不如直接用于特定场景头像视角的来得舒服。 目前有两个不算新的玩法: 一个是通过全身绑定多个定位器的方式,实现全身主要关节包括手指的控制,有点类似全身动补,有兴趣的可以玩下,成本不算很高,但是用一次很累。 一个是通过斐济杯和vam插件互动的方式,插件名字忘了,网上有卖这个斐济杯架子的,其实就是用杯架的来模拟某些动作,再结合斐济杯,实现1:1场景内的动作互动,没体验过,觉得麻烦,有条件的可以买一套来感受下。 3.3 影视类 本质就是将vam场景进行180度或者360度录制成视频后,通过vr头戴来观看,也就是vam内容的vr视频。 制作本身不复杂,vam本身也有对应的录像插件,坛子里好像有分享这个插件,可以录制2d平面也可以vr模式的,问题在于vr视频的渲染非常慢且制作完之后视频容量非常大,据说用4090的话,10分钟的视频光渲染就要7-8小时(要想看的舒服,必须要8k格式),不知道是真是假,我没试过。 目前可以比较容易看到的vam vr 8k级别视频,只能去自己找资源,我目前就发现了2个作者在弄,视频质量尚可,但视频数不多,然后在devovr这个vr一体机播放器自带的视频库里面我发现了有发布不少360度的vam视频,可惜清晰度最多只有4k,属于勉强能看,但毕竟发在开放市场,所以没有R18内容。 以上就是本次我的一点分享内容,欢迎大家一起来讨论vam的高阶玩法,感觉ai和vr算是vam的高阶玩法了吧。 最后,希望有资源有条件的大佬们,可以慷慨的分享出最新的付费插件和相关资源,独乐乐不如众乐乐!
求问几个关于版本和VR和视频问题 本人设备12700k+3080+1t专属vam固态+128g内存+quest3配置 目前有800g各类资源,跳舞插件包也有。。。但是用起来太累了 1.关于版本 我目前在用1.20.77.9版本,本身没啥问题,就是vr容易抽风加载也慢。 现在我看很多人都在用1.22版本,想了解下1.22版本比1.20版本有什么区别么? 2.关于VR 目前网上找到的场景都各种缺依赖,人物卡我倒是不少,但是玩一次太累了,请问有没有类似zeromylove视频那样的整合场景包,打开后只需要一键开始的?我实在找不到了,要不找来缺东西,要不找来还要自己组装,要不找来质量跟zeromylove视频上的简直相差得飞远。 另外,关于在vr场景内,双手的效果问题,现在quest3支持手势识别,但是vam里面的手势识别还是基于手柄且识别能力非常微弱只能稍微弯曲一点点,不知道有没有什么插件可以完美实现手势的全识别的。 3.关于视频 我是自zeromylove的1-68期视频重新入坑的,但同样的2d视频和vr180度甚至360度的视频比起来完全不是一个东西。erup作者的vr视频我拿到全部发布作品,看了后,发现如果能再进一步,比如将zeromylove作者的2d视频转成vr版,那将相当完美。不知道类似的视频作品有没有推荐获取渠道或者你出场景整合包,我出电脑来渲染都行。非盈利目的,只是为了单纯获得那种体验。 拜谢各位,如能彻底解决问题,可酬谢。
1 下一页