真·晕晕无双
真·晕晕无双
痛苦的思索永无尽头
关注数: 40
粉丝数: 475
发帖数: 10,367
关注贴吧数: 21
【土法加速】两张显卡一起跑 开两个进程,分别用两张卡来跑
【引流】一个增强质量的pastelmix模型 civitai上搜索BestQuality-PastelMix就可以找到。 在尽可能保留pastelmix本身的风格的情况下,极大地增强了其稳定性与出图品质。 在构图和人体方面的强化最为显著,拥有进一步混合的潜力。
【技术分享】你应当知道的关于逐块融合的那些事儿 这应该是整个简繁中文互联网社区中少数深入讲解逐块融合的帖子,我也是耗费了大量时间去查阅了许多外文资料和参考才勉强理解了一些浅薄的知识。 如果这个我的讲解内容对你有所帮助,那就再好不过了。 在这个帖子里我要讲述的东西是会涉及到一些进阶概念的,要看懂我在说什么,你首先需要理解stable diffusion的几大组件构成原理以及明白权重集合块的概念。 关于这些概念,可以去B站找到飞鸟白菜这个up主的最新一期视频进行了解。 关于最近出现的逐块融合的概念,我们不谈更加玄学的元素,仅从块层面进行一些讲解。 我们知道,任何一种针对UNET进行配置的权重集本质上都是同一类型的存在,只是它们包含的权重范围不同。 基于这一点我们可以非常自由的在块层面上进行融合/删减/增加等操作。 但进行这些操作之前我们首先需要知道那些块到底是什么,而这一点显然是不可能的。 我在中文英语日语等搜索引擎都去查找过这些块到底是什么,它们是如何工作的。 然而搜索结果中谈论到这些块是基本上都是基于经验推测而来的发言。 也就是说,目前为止这些块都是黑盒。 但经过网络上各路大神的实验,我们也逐渐通过人工学习在很浅薄的层面上理解了一部分内容,这也给我接下来要讲的东西铺好了基石。 再次感谢网络上的大神们的无私分享。 这里主要通过SuperMerger插件支持的两种权重集来开展讲解: 1、大模型/完整权重集/ckpt 这些权重集是最完整的,拥有26个块,这些块具体是什么我们可以在SuperMerger插件的最下方看到。 通过各种实验,我们可以模糊的将这些块的影响范围分为以下三种: (1).图像构成——IN04-08 (2).色调纹理——IN09-11 OUT10-11 (3).角色形象——OUT03-09 这里总共只有17个?是的,还有一些我还没搞清楚它们的影响范围。 但有这17个也已经是重大进步了,我们可以基于这些已经探明的块来进行许多深入操作。 2、lora 这些权重集是精简的,拥有17个块。 这些块分别是BASE,IN01,IN02,IN04,IN05,IN07,IN08,MID,OUT03,OUT04,OUT05,OUT06,OUT07,OUT08,OUT09,OUT10,OUT11 虽然缺少了一部分块,但还记得我上面说的关于权重集的本质吗?是的,lora的块与ckpt的块的作用是一模一样的。 我们依然可以根据上方完整权重集的经验来配置lora这种精简权重集。 既然上方的基础理论都讲完了,就让我们进入实践环节吧。 以下例子都是使用的同一套参数与同一个种子,不使用任何额外的权重集与controlnet等插件。 以AOM3A1B为例子,它原始情况的生成的图片风格如下。而我们可以尝试去替换它的角色形象层,我将两个lora的角色块分别以0.5合并为1.0的强度替换进去。 可以看到画面出现了非常大的改变,其中最明显的就是角色,然而背景也在一定程度发出现了变动。到这一步还不够,我觉得画面中色调对比度太高了,我又把pastel的色调块以0.5的强度替换进去。 嗯,这样就是舒服了。到最后我还是觉得构图方式不够令人满意,我又把counterfeitV2.5的构图块替换进去。 这下画面彻底大变样了,这种变化你是否喜欢呢?总结: 我们可以发现根据经验来获得的这些块的影响范围并不是那么的精确,而是比较模糊的。 在我们替换不同范围块的时候会一并改变其他的内容,仅通过块操作并不能做到那么那么的精确。 但事实上目前已经有新的针对块之中的元素进行配置的方法了,但是经过我的调研,可以说元素配置还没有被社区摸索总结出什么有用的经验。 目前针对元素层的配置还属于玄学范畴,以后相关内容足够丰富了我再来发帖讲解吧。 总之通过这些块层面的操作,我们可以在没有几千张上万张A100显卡可用于大规模训练的情况下深度定制我们想要的模型效果。 并且由于可配置lora等轻量化的权重集,整个互联网开源社区未来的可能性甚至是足以比肩甚至超越大公司的。 但要做到这一点需要大量爱好者的钻研与技术分享,期待正在阅读这篇帖子的你也能参与进来。
【技术调研】模型的分层融合 最近发现webui有个叫SuperMerger的扩展插件,可以实现模型的分层融合。 可惜中文社区好像没什么讨论度,找不到什么详细的教程和参数讲解。 自己折腾了三天有了一些成果,因为实现了更加精确的权重块的操作,可以更加精细化的定制融合模型的效果。 还可以实现针对LORA的分层融合,不过这方面目前我的实验效果较差,融合到大模型后基本上都没法看…… 虽然controlnet最近很火,但是对于我这种玩票的人来说感觉就是无聊。整个制图流程确实更加可控了,但不符合我研究AI相关技术的初心。 最后上两个例子吧。 将pastel的人物层迁移到Counterfeit-V2.5中的效果:将pastel的人物层迁移到AOM3A1B中的效果:
空之轨迹这两年要出重制版了? tieba.baidu.com/p/8291515617 原画吧有一个美术从业人员接了空之轨迹的PV,立绘等项目的外包。 看样子这次规模还挺大的,立绘重画+PV重制都在做,而且是falcom本社发出来的外包,不像是授权ip相关项目(比如手游什么的)。
【AI绘画】美少女/游戏立绘风格主题 既然游戏立绘也能画,我估计设定/三视图应该也能画,等我调查一下
AI作品的权力问题 近期看到美国官员的司法解释明确表明了AI作品不受法律保护,AI作品从生成的那一刻开始就自动进入公共版权领域。 我第一次看到这个新闻的时候感觉没毛病,但后来越想越不对劲。 人类创作的同人作品、临摹作品、翻唱二创等等都享有一定程度的著作权,而AI作品真就一点权力都没有了吗? 我想要搞清楚美国的这个司法解释的背后逻辑。 目前主流的图像生成AI技术是diffusion模型。 其原理是分析训练素材的像素分布规律,而后总结为特征,将这种特征使用高维空间中的数学向量储存为权重集。 而生成图片的过程就是将预训练的权重配置进去,输入一个随机高斯噪声与词元编码的向量到U-Net去噪声生成符合向量的图像。 我们可以发现,所谓机器学习的本质是学特征规律,AI绘画的本质是从随机高斯噪声中还原出的符合词元向量的图像。 如果说学习规律本身是不道德的,甚至是违法的。那么人类观察其他艺术家的作品,临摹其他艺术家的作品是否也是不道德甚至违法的? 如果说从随机高斯噪声中还原出来的图像不是一种艺术作品,那这种形式的工作到底与人类从一张白纸上画出来的作品有什么本质上的区别呢? 在我看来,这个司法解释的背后的深层逻辑还是在于著作权与人权有重叠的部分,人类及其构成的组织才是权利与责任的主体。 而AI不是一个人或组织,是一个纯粹的工具,工具哪来的权力与责任呢? 或许这个问题要等到真正意义上的强人工智能出现,让AI褪去一部分工具属性的时代会有更合理的解释吧。
【课外挑战】立绘风格作业 tieba.baidu.com/p/8285577836 请根据上面这个帖子给出的提示词规范例子,生成类似以下几张例图的效果,并将提示词完整给出
【每日小姿势】提示词的稀释与强调 众所周知,我们使用webui生成图片时是需要通过提示词来控制画面效果的。 那么是不是说只要提示词写的越多效果就越好呢? 相信许多人有过这样的想法,但最终实践下来会发现实际表现甚至可能是负面的——写得越多,效果越差。 这是为什么呢? 这里就需要讲到今天第一个知识点了,提示词的稀释。 假设一个图有100万个像素可以用来匹配不同的特征向量,你只写8个提示词时,平均每个提示词可以得到的像素是12.5万个。 当你写了80个提示词时,每个提示词可以得到的像素就是1.25万个了。 当然这是一种非常不严谨没有任何依据可循的类比,实际上完全不是这样的。 但道理是相通的,提示词写得越多,画面就越趋于平均化。 结果是缺乏重点,画面效果就差了。 再就是今天的第二个知识点,提示词的强调。 很多人都知道可以用括号,花括号,中括号等符号来强化或削弱甚至是控制提示词起效的步骤。 但还有很多人忽略了一点,强调本身也是可以被稀释的。 当你给画面质量添加了1.3的系数后,又给场景添加了1.5的系数。 没错,这样写确实能让你的场景更加完整的呈现在画面上。 但实际上此时画面质量就已经被降级了,你的画面强调系数被场景强调系数给稀释了。 为了解决这个问题,我是推荐这样写: 正面: (masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper:1.6), // 画面质量 (illustration,morning,city,street:1.5), // 画面风格与场景特征 (solo,1girl,bishojo:1.5), // 角色特征 负面: (worst quality,low quality,normal quality:1.8), // 画面质量 (bad composition,bad structure,bad proportion,bad posture,rerspective error,wrong number of limbs, wrong number of fingers:1.7), // 角色和场景的错误 (watermark:1.6), // 画面的额外错误 给每一级别的强调系数都归类合并,精细化操作提示词的权重来控制你的画面。 既然稀释是不可避免的,那就用这种方式来尽可能降低稀释带来的不确定性。 并且严格按照这种强调系数分级的写法还有许多额外的好处:能100%的解决提示词过多时画面平均化的问题,因为从一开始就确定好了什么东西是必须被最优先强调的,定死了画面效果的下限。 总结: 1、提示词不是越多越好,有限的画面中一定存在像素资源分配问题。 2、提示词的权重和类别需要进行更加严格的管理,降低不确定性与提高画面效果的下限。
治愈一下心灵,看点小家伙们吧
【AI绘图】美少女/科幻/城市主题
【授人以渔】手把手教你怎么训练一个简单易用的负面嵌入模型 既然都点进来了,那应该也知道这帖子是打算干啥的了,不废话直接开始吧。 在开始前你需要知道的: 我教你的是针对某一模型的专用负面嵌入,所以你要选中你想针对的大模型来生成素材和训练。 全程不可更换大模型,否则会导致炉子炼炸。 第一步: 你要准备一套你自己常用的负面词条集。第二步: 将上面准备好的这套负面词条集全部塞进webui的正面提示词输入框里,再设置你平时跑图时的参数。 注意这里要把生成批次和每批数量都拉满,可以生成800张素材,素材量不怕多就怕少。 分辨率选择512*512,这个是适合8g显存来训练的大小。 但无论你是1066还是4090的显卡,我都不推荐大于或小于这个尺寸。别的分辨率最终效果都不如512*512的,我也不知道为什么。 提示词相关性调整为1,这样能使样本的多样性被最大化。 随后点击生成按钮,等待800张素材被训练出来。第三步: 点开webui的训练选项卡,在创建embedding这里输入你的词条名称(注意,同时也是这个嵌入式模型的触发词)。 再把你刚刚用来生成训练素材的提示词全部输入到下方初始化文字的输入框里。 而次元的向量数个人建议填10左右,这个是我摸索下来比较合适的。 再就是点击创建一个空的embedding,右边会提示你的embedding被创建在了什么目录下。第四步: 点开右边的训练,不用看右边的超网络模型的训练,只看左边的embedding就好。 在embedding选项里选中你刚刚创建的嵌入式模型。 下方的参数大部分都不要改,只需要改我提到的这几个就好: 1、数据集目录输入你刚刚生成的素材目录,此目录不可存在素材以外的图片,否则严重影响最终模型效果。 2、最大迭代步数填写为6400,这个和向量数以及素材量有关,6400对于800张素材与10的向量是比较合适的。 3、每N步保存图片和保存备份这个建议填写为1600。 点击训练embedding,开始炼丹并等待完成。第五步: 去生成图片吧,正常输入正面提示词,而负面提示词输入框只需要填写你刚刚生成的这个嵌入式模型的名称就好了。 直接512*512跑10张图片看看效果。 如果一切正常的话,此时你的图片应当效果不错。 下面这个是我根据不同的提示词练出来的三个不同的负面嵌入的效果图。
【模型分享】viewer-mix_v1.3与其专用负面嵌入 viewer-mix_1.3版本的改动: 1、将vae文件烘焙进去了。 2、调整了原料的比例重新进行混合,优化了色调和氛围,使其看起来整体光影效果更具戏剧性。 当然做这些调整是有代价的,人体和场景都出现剧烈的崩坏,原来针对1.0版本的负面词条已经不起作用了。 这促使了专门为viewer-mix_v1.3而训练的负面嵌入模型——veryBadImageNegative的诞生。 veryBadImageNegative的灵感来自于EasyNegative,两者都是专门针对某一特定模型而训练的负面嵌入式模型。 veryBadImageNegative提供了1.0和1.1两个版本,这两个版本有一些微妙的差别。 对于这些模型我均提供了从1600-6400步的的不同版本,选择适合你的就好。 理论上训练步数越大的,修正效果越强,但相应的整体风格也就更加顽固,难以被改变。 关于风格强度这一块我也没摸透,建议活用权重来调整,例如:(veryBadImageNegative_v1.0-6400:0.8)。 这样写的效果就是将词条的效果降低到原有的80%。 最后是使用方法: 1、将veryBadImageNegative等嵌入式模型放到stable-diffusion-webui\embeddings目录中 2、在负面词条输入框里写入触发词(触发词就是嵌入式模型的文件名) 最后是一些例图,所有例图都放在了我的分享文件中。 你想要例图的标签和参数的话直接把【分享文件中的例图】拉到webui的图片信息中就能看到,不再额外提供参数文档了。 上传到贴吧的图都是压缩过的,丢失掉了参数信息操作,不要对贴吧的图做这种操作! PS1:关于如何训练这些嵌入式模型的教程我还在筹备中,本周末会发布(咕)。 PS2:训练这些负面图集对个人的承受能力有一些考验,因为会生成大量的令人作呕的扭曲图像……
【重大成果】我成功复刻了easyNegative的效果 前情提要:tieba.baidu.com/p/8271023080 几天前我开始研究该怎么制作一个类似于easyNegative的负面嵌入模型,生成了数千张图,跑了十几万步的训练流程。 始终没有达成我想要的效果,类似这样效果的嵌入模型至今为止网络上我能找到的也只有easyNegative这一个。 但刚刚结束了一轮比较失败的训练后,我开始把目光转移到素材图上去,然后换了一个全新的方式来制作素材。 因为并没有报有很高的期望,跑了800张素材后只进行了1000步训练,然后我就震惊了 这效果不说一模一样,起码也可以说八九不离十了。 不废话,上图。 下面这些图都是用我自己融的viewer-mix_v1.3和这个负面嵌入模型跑出来的。 正面:((masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper)),illustration,landscape,solo,1girl,bishojo,beautiful detailed eyes,Student uniforms 负面: veryBadImageNegative
【技术调研】该如何训练一个十分糟糕的嵌入式(embedding)模型? 近期在调试viewer-mix的新版本的时候,发现不管怎么改词条、改参数、调整不同模型的混合比都难有更进一步的提升了。 由此我想到了Bad artist和easyNegative这两个嵌入式模型,在尝试后虽然效果显著,但是因为是用别的模型训练出来的所以总归风格迁移比较严重。 而这一点对我来说是不可接受的。 注:Bad artist是基于anything-v3,easyNegative是基于Counterfeit-V2.5。 所以我想,我应该基于我自己的模型来进行训练,于是就开始干了。 首先是去网上找了几篇如何训练嵌入式模型的文章开始阅读,但都讲得十分模糊浅显,并不能解答我的许多疑问。 这个没办法,求人不如求己,还是亲自上手试错才能最快得到进步。 而在这趟踩坑过程中主要是遇到和解决了以下几个问题: 1、我该如何高效获得训练素材? 我的素材的起点是来自于自己搜集的一套负面提示词,最初的想法是一条一条放到正面提示词输入框里慢慢跑。 但显然效率太低了,于是我把目光投向了脚本,然后我惊喜的发现webui自带了一个非常好用的脚本,可以通过换行词条自动跑图。 于是这个问题就被解决了,自动化造福人类啊然后我获得了一大堆令人不安的诡异素材2、我该怎么处理这些素材? 首先是预处理,因为我这些词条每条跑5张,最终总共有800张左右的素材,所以不需要开启镜像翻转来增加素材量。 但是生成deepbooru词条文本还是有必要的。在预处理完成后我获得了这样的一堆图片和描述文件。3、该怎么设置嵌入式模型的参数? 我参考了Bad artist,将模型的向量设置为2,打算和这个模型一样训练15000步,并且每1850步保存一次副本,用以检验这个步数是否合适。 基本上就是照抄新手上路毕竟还是需要老司机带一带。然后我在设置中将deepbooru的词条阈值设置成了0.7。最后再设置一下训练参数就开始跑了。整个训练过程需要将近两个小时,慢慢等吧。 接下来就是检验效果了,我在这里不卖关子了,直接说结论: 这个嵌入式模型作为首次尝试模型训练的成果来说还是比较喜人的,确实达成了一部分我预想中的目标。 但是似乎是我在生成素材时没有考虑过一部分词条的学习效率(例如水印基本就没学到),还有pastel本身自带的的色块和色彩饱和度等问题我压根没考虑过,总的来说这次尝试并不算是成功的。 但正所谓失败是成功之母,再接再厉吧接下来有时间我会持续改进的。 所有图片的正面关键词都是一模一样的,而负面关键词只有这个嵌入式模型。 每一个阶段步数生成5张512*512的来验证效果,二楼开始上图。
【多图】没什么头绪,发点图 这大概是viewer-mix_v1.2的一些预览吧,依然是纯模型+tag跑的。 这个版本不是很理想,就不分享了,等我再迭代几轮看看 感觉遇到瓶颈了,相比v1.0版本整体是色调和氛围加强了一点。 我之后想学习一下怎么玩嵌入式模型,也尝试一下训练一个反向词条来加强模型的表现。 就是近期工作忙起来了,没什么时间研究了
【入门知识】为什么我的画面效果看起来如此糟糕? 近期发现不少新手明明用了那些爆款模型却无法实现别人的画面效果的情况。 这里简单说一下,主要其实就两个知识点。 1、没有输入正/负面画面质量提示词 这个很简单的,给你的正面提示词输入框的最前面加上:masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper, 然后个你的负面提示词输入框的最前面加上:low resolution,Very low resolution,Low image quality,Very poor picture quality,Poor quality detail picture,Vague details,Mosaic pictures,Problems in drawing,Overfitting,Bad painting,Bad painting details,Low quality painting details,Normal quality, 然后就可以解决了,如果个别模型特别顽固,那就给词条加权重。 2、还有个别模型,对,说的就是那个近期大热爆款counterfeit-V2.5。counterfeit这个系列的模型都比较特殊,模型原作者使用了这个模型本身跑出来的低质量图集喂给了嵌入式模型EasyNegative,等于说是让AI来改进AI自身。 直接导致了EasyNegative这个嵌入式模型和counterfeit这个系列模型形成了高度耦合的关系,结果就是当你使用counterfeit-V2.5而不配套使用EasyNegative时画面效果会十分糟糕。 不排除今后还会有大热门模型也学习EasyNegative的这种操作,实际上这十分有效,我们也可以看到counterfeit-V2.5这个模型的出图品质是多么让人惊叹。
【模型分享】viewer-mix_v1.0发布啦~ 模型下载链接:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fpan.baidu.com%2Fs%2F1h1c7x27ZAwzZ2D_1aZ8-TQ%3Fpwd%3Drmp7&urlrefer=30b8cad54b0800decce9582e58b2e889 这个模型的由来之前在吧里发过帖子,是由pastelmix、aom2_sfw、counterfeit-V2.5这三个优秀的模型混合而来。 这几天跑了几百张图,最后根据个人的审美从几种不同的配比组合中挑选出了这个,只是做了一点微小的工作而已。 最终选定的配方是:pastelmix * 0.5 + (aom2_sfw * 0.5 + counterfeit-V2.5 * 0.5) 模型特性: 1、可渲染出超高质量的景观与风光,还原出的物体具有锐利的边缘与纹理丰富的笔触。 2、肢体还原比较糟糕,如果频繁渲染出鬼图,那么请参考例图参数文档中的负面标签进行调整。 3、这个模型并没有融合vae,经测试使用pastelmix、aom2、counterfeit-V2.5这三个模型作者提供的vae都有不错的效果。个人推荐使用pastelmix的,全部例图均使用此vae。 请注意以下几点: 1、以下所有例图与对应的参数文档一并放在了上方链接中了。 2、不提供任何vae文件,未经同意请勿二次发布他人的劳动成果。 3、此模型遵照stable diffusion的模型开源协议。 3.1、如果你打算将这个模型进行混合发布,请记得公开配比权重。
【求助】该如何才能将lora模型合并到大模型中? 如图,我在研究pastel-mix模型时发现作者公开了这个模型的合并历史。 第一部分我还能看得懂,而第二部分融合lora我就搞不懂了。 因为我已经尝试过将他人训练好的lora合并到大模型中,结果合并过lora的大模型和原版模型出图效果是一模一样的。 基于这个实践,我认为lora模型并不能和大模型进行合并。 但这个合并历史清清楚楚的说明了是可以的,难道是需要什么特殊的操作才能实现吗?
【技术调研】初步探索AI制图更多的可能性 我对AI制图技术产生兴趣是在去年novelai爆火后开始的,但直到上周开始才正式打算体验一下。 总的来说是抱着一种猎奇的,尝试新鲜事物的心态开始的。 但很快就沉迷其中了,这门新奇的技术还挺好玩的 在摸索清楚了绘图方面的一些参数和标签玩法后,我开始尝试起了模型合并。 模型合并这个玩法在我上手之前是完全想象不到可以这么简单方便且高效的。 正常来讲,训练模型对普通人来说是比较困难的。 不是专门做相关技术行业的人很难去获得大量训练素材和调试好训练参数。 但是stable diffusion webui的这个模型合并功能在一定程度上打破了这个技术壁垒,这个功能可以让别人已经训练好的模型成为普通用户手中的原料,通过简易的比例调整便可以合成一个新的模型。 比如我想针对pastel这个模型进行一些改进,那我就可以去寻找pastel模型不擅长的方向上做的更好的模型,然后适当的融合一些进去。 融合完成后会发现一些微妙的化学反应,更加写实的光影和更加严谨的建筑物和摆件等特性加入后,变得有一些油画、水彩的质感。 下面是一些16:9宽画幅例图,我是倾向于使用这种尺寸的图像来测试模型的效果。 因为宽阔画面中能容纳更多的构成元素,而元素越多越复杂就越考验模型的还原能力。 最终从效果图上来看,依然是第一眼没问题,但仔细一看存在大量的光影和透视错误。 拼凑不同的模型并不能带来绘图性能的提升,只是调整模型生成的图像风格而已,关于这一点只能说比较遗憾了。
初次尝试模型合并的一些分享和体会 pastel这个模型玩了一个礼拜,感觉有点腻了,想着给这个模型做一些调整。 于是开始了新一轮的折腾,思路上就是搞清楚自己想干什么,该怎么干。 我为什么想要改这个模型呢? 因为同一个风格看的有点腻了 该从何处下手? 从这个模型让我不满意的地方下手 具体哪里不满意? 1、对有具体的物件(如建筑,摆件等)还原的比较糟糕 2、在生成宽画幅图片时,场景中的构成元素还原质量不稳定 那么我就开始去找对的上眼缘的模型。 我第一个找上的是AOM2,这个模型可谓是2023年最火爆的了,我经常看的AI绘图相关讨论社群全都被这个模型刷屏了。 这个模型的优点是人体还原效果较为稳定,出图的光影效果和材质质感方面无可挑剔,风景建筑和摆件等元素竟然也不差。 简直就是完美的AI制图模型了,太厉害了。 但是AOM2也不能完全满足我的需求,AOM2的图片效果都太柔和了,我更希望能看到有锐利边缘风格。 于是我又找到了最近几天比较火的Counterfeit-V2.5,这个模型在光影还原度上几乎要达到照片级别了,甚至会让我感觉真实的有点太过了。 而这个模型的出图效果是较为锋利的,且对比AOM2在材质效果上多了一些笔触质感,可以有效中和我对AOM2一部分遗憾。 于是这个融了三个模型的新模型被我弄出来了,最终效果我是比较满意的。 因为本质是改良pastel,所以成分上占大头的还是pastel,而且vae也是用的pastel原版。 具体配比大概是: (pastel * 0.7 + AOM2 * 0.3) * 0.7 + Counterfeit-V2.5 * 0.3 这帖子能发出来的话,我就在下面发一些我改版的pastel和原版的同标签同参数的对比。 下面我发的图片都是一次生成,没有图生图或蒙版重绘。 每次生成10张,每一批里挑选相对质量最高的一张。 注意,并不存在所谓的融合模型比原版模型更好的说法。 都是取舍,你想要什么来弥补那也必然会丢失掉原模型的一部分特点,想要提高AI绘图的质量终究是需要回到算法和训练本身的。
融合模型时提示显存不足,有什么解决办法吗? 我拿两个5g的融出来一个7g的,然后再拿这个7g的和一个6g的融合,就报错了。 我的显卡是3080 12g的,思来想去估计是两个模型需要同时完整加载到显存里,结果就爆显存了。 有什么办法吗? 我目前想到的是合成时生成fp16的模型来替代原来的7g模型,但是不清楚fp16会不会对模型的特性造成一些影响。
有什么办法能跑两张显卡的吗? 有一张卡总是在围观,感觉浪费严重……
一例有趣的AI绘图实践,关于AI到底在想什么? 前情提要:tieba.baidu.com/p/8238277850 今天尝试同一套参数和标签批量生产图片,结果发现多张图片的构成逻辑是可能产生连续关系的。 例如下面这三张,竟然可以从人脑的角度理解出一些时空延续关系。我是只给画面中左边的角色指定了标签特征,右边的角色在我的预想中是不应当在这一组图片中存在的。 结果出来的图就很魔法,出现了一个不存在于标签描述中的角色,并且的其形象构成稳定性还很高。 我是有点猪脑过载了 当然人体结构方面还是发挥稳定,大部分情况下都存在缺胳膊少腿的情况……希望模型合并能挽救这方面的缺陷,之后打算往这方面摸索一下。
关于AI制图的一些体会和想法 折腾了一天下来,有几张成果了 楼下细说
论苏联制造工业垃圾的能力——支点的雷达 这雷达性能的孱弱我都不用多说了,19km对面拉个三点对着你平飞都直接能脱锁。 但这个雷达也并不是非常彻底的一无是处,至少对比MLD的雷达来说,这玩意儿的格斗模式非常靠谱。 虽然格斗模式看的比IRST还短只有10km,但锁上以后就十分稳定,很难脱锁了。 再加上昨天更新了头瞄辅助雷达锁定,把原来垂直角度过大的问题也一并解决了,起码现在不担心锁队友了 现在这个头瞄配合R27ER让支点C实现了10km内数一数二的压制力,锁的快锁的稳,导弹也是飞的快打得准。 要评价支点C的话,目前在游戏中的表现是超视距能力看缘分,而格斗中R27ER基本一发一个人头。 但是也就是这个R27ER比较狠,R60M就是非常彻底的烧火棍,没有27ER的支点就是没了牙的老虎。 总的来说还是没能改变目前游戏里的基本格局,只能说让苏系有一定的还手能力。 原来那不死鸟+麻雀的逆天阵容真的是一点机会都不给,现在27ER起码可以认为在中低空交战中稳定压制住了麻雀。
蜗尔街之狼速来 这几个是囤着等升值还是马上卖?
这次有安东星超人可以做到三个活动大奖全部薅下来吗 48个小时内海战4万分,陆战4万分,空战再来4万分。 连续十次 感觉真能打完的肝硬化晚期了吧 上次周年庆100万分的活动我打的头晕眼花的,打完直接戒了战雷十几天
卡52是不是彻底被米28nm替代了 卡52有的米28nm全都有,卡52没有的9m123米28nm也有。 观瞄倍率也不如米28nm。 非要说卡52有什么优势,就是断了尾巴也能飞,但是现在这种程度的损伤回了机场也不给修了。 感觉卡52没什么存在的意义啊
讨论一下战雷将来能出的国产三代机的雷达 刚刚一个讨论J10A和F16A的帖子看到一些dinner发言给我整无语了
下版本中系全面加强 湾湾F16的block20版本的武装配置真的有点厉害哦 对空有目前最强的格斗弹9L和相当靠谱的AIM7F 对地有牛B(AGM65B) 地上加了一辆99A的原型车,好像是火力和防护略微加强机动能力降低一些的99A 相对应的是苏系又加了一个10.7没有热成像的交易所80U,阜南污染度进一步增加 感觉下个版本更新后中系胜率有望和现在的瑞典平起平坐。
关于测试服支点的实际对抗 R73,除了抗干扰全面加强的R60M。 一切原来用来应对R60M的方法都可以用来对付R73,主要威胁还是来自于偷袭。 R27T,全面加强的R24T。 下版本苏系真正的一键沙马弹,格斗偷袭样样精通,不吃任何干扰。 不可逃逸范围类似9L,不管你是撒热诱弹还是做机动都一样。 R27R,其实导弹本身数据还过得去,但是支点的雷达是个废物……没什么存在的意义。
关于今天TGA公布的装甲核心6,做一些简单的科普 我看到贴吧不少人对这系列挺感兴趣,但确实不太了解,就想着专门来个帖着重说一下这个新作到底是个什么情况 首先我不是遗老,这个系列也只玩过xbox360上的v和审判日。 对这个系列过往的东西真的不清楚 楼下开始讲一些杂七杂八的东西。
卡普空提醒玩家注意收看TGA,表示将有令人难以置的发布 我:确实难以置信
装甲核心还真出新作了
新版本不想氪金,怎么研发米格29? 我是苏25k刚买了一个多月的小丑🤡 实在是不想给gaijin送钱了,手头还有3000金鹰。 刚好圣诞节配件半价可以上符,该给哪个七级飞机上呢? 苏空我是全开到顶了,目前比较中意的是米格27k。
直升机pve本来就很肝,现在又被砍了收益
我今天算是见识到你游的点亮系统有多逆天了 北极那个图,出生在上面,我开个大章鱼从海边绕侧。 绕到B点左边的时候,刚好翻过一个坡突然响起了M1那个经典燃气轮机声,往右边一看发现一个正在爬坡的M1。 估计是他正好也发现我了。 我们同时开始扭车体转炮塔,但我炮塔还没转过来就被他给杀了。 此时我已经意识到有什么不对劲了,因为我们两个的距离也就150米左右,按照常识无论是我的发动机还是他的发动机发出的声响早早的就可以让我们提前知道对方的存在。 但一直到我绕到了他屁股的右后方我们两个才互相发现 我抱着疑惑去看了本地录像,因为本地录像是仅保存了我的客户端在战局中记录下来得信息。 也就是说谁被点亮了,谁有没被点亮在我这边是很清楚的。 然后我发现,原来你游不判定对面被点亮的时候连发动机声音都没有的 就这么两百米不到的距离,我们互相没有点亮对方,我们互相都听不到对面的发动机音效,互相都不知道对面的存在。 真的逆了大天 我说巷战的时候怎么整天莫名其妙被人在近距离绕了屁股,捏麻麻的压根没点亮连发动机声音都没有。 等于是在我的客户端里这个玩家甚至是不存在的,这点亮系统怎么能做成这样?
黎之轨迹2,今年第二失望的jrpg 有人要说了,今年做烂的jrpg不少。 但有一说一,我抱有期待的也就那么几个。 年初跳票的黎轨1中文版给了我很大的惊喜,虽然大体上剧本创作思路还是轨迹的老一套。但是演出细节和角色塑造真的是回到了空轨和碧轨的水平。 每一个角色我都记得清清楚楚,他们的外形人设,到性格口癖都很讨喜。 哪怕是反派也真的挺有特点的。 但是到了黎之轨迹2,这剧本梦回……哦不,没有梦回了。 就是单纯的烂,烂出轨迹系列新的下限 我当年吐槽创轨的罗伊德线烂我是有参照的,因为整个就是把闪之轨迹四部曲的所有烂梗一股脑塞进去。把一帮本来已经塑造完全,甚至人格上已经较为完整的罗伊德重复闪之轨迹四部曲的塑造模式再来一遍。 属于是没活硬整,整不出狠活了。 这黎之轨迹2是烂到我不知道用什么参考,从某种意义上来说也是这个系列一个新的巅峰,烂出了自己的特色和特点。 今年第一失望是异刃3,异刃3我抱有的期待是突破历代的制作上限,而结果是它只是成了一个历代集大成之作。 而这个第二失望的黎轨2,我原本抱有的期待是延续前作的优点,而结果是烂出系列下限。
每天10万,十天整刚好打完 肝不动了,突击虎的第六颗星明天再打了 迟早累死在赛博棉花田里
反转了,T-72B真香 前几天我还在说这玩意儿难用,反人类8倍镜啥都看不见。 这两天我开这玩意儿出门100多局下来胜率已经突破50%了,虽然还没有完全体,但kd和场均都过1了 我估计很快就能过2,毕竟72AV这车我都打到了将近1.7的kd,没理由比这玩意儿差。 这玩意儿推重比好像略微比72AV略高一些,开起来的手感有一些改善。 再加上相对靠谱不少的装甲,把那些当我是脆皮套到首上就打的萌新打蒙了都。
原来M1也是有红外干扰系统的 今天莫名其妙总是提醒我通古斯卡导弹被干扰,我都回去看录像了,结果愣是没发现哪有干扰源。 然后到试车场排查,结果发现原来M1有红外干扰系统 并且把这玩意儿打烂了,损伤提示是红外对抗系统。 这是不是意味着小牛这一类可以射后不管的空对地导弹无法锁定M1?
三个半小时,成功3.5万分 我是懂棉花田的
陆战历史10.7班长苏系是不是最重量级的? 我发现打9.7本身倒是胜率不低,关键还是和72B3,90A,80UK这三憨货一边的时候胜率奇低 基本上这种班长车开局几分钟就会被对面的90105给打死,是不是以为当了班长自己就很硬? 然后关键我们这边打到后期最多就80B这种水平的,美系那边打到中后期还在出M1A1,IPM1,M1A1HC,M1A1AIM等等。
是万圣节彩蛋还是啥,我快被吓死了,慌的一批 刚刚进了一局越南,那个地图一开始我还只能听到很细微的广播声,没注意。 等我占了C点以后发现这声音太离谱了,就是一个低沉男声一直用广播音在讲一段重复的话 我吓得鸡皮疙瘩都起来的,以前进这张图从来没听到过,对我的精神和听力造成严重影响。 基本都很难听到别人的发动机声音了,而且一直疑神疑鬼,紧张的要死
现在车体在水里泡着是不是直接无敌了? 刚刚我贴脸冲一个cv90105,他车体大概一半泡在水里。 结果我瞄准他炮塔下方的车体打出去的一发芒果直接就连火花都没出现,凭空消失了。 太离谱了吧 我回放0.01倍速,这真就一点火花,水花都没溅出来,直接失踪。
这个版本是战雷有史以来最不稳定的版本? 这客户端稳定性也太离谱了,这两天玩着闪退次数起码20多次,基本上游戏进程被打开后10到20分钟左右大概率直接卡死。 除了强制闭关进程没有任何解决办法。 我的设备是暗影精灵8plus,12700h+32g内存+3070ti,应该和配置无关吧
当了一晚上2S38的72AV队友,我来分析一下 首先给出结论: 战争雷霆十周年以来最P2W的载具,真实性能在10.3到10.7左右。 优点是什么呢? 对空能力超强,让9.7苏系本来为0的防空能力一跃成为同级最强,我开72AV一晚上就没怎么被对面直升机和CAS打死过。 钢针和装药弹让这玩意儿正面和侧面对敌杀伤效率以及容错率高得惊人,从火力上来说已经秒了游戏中所有的速射炮。 光速双机+超清热成像使其战场感知和响应能力达到了同级别最强。 缺点是什么呢? 窄履带再加上20出头的功重比让这车不具备一般轻坦的灵活性,侦察点亮能力也不强。 5°俯角基本没有卖头能力,发挥不出无人炮塔真正的优势,在和美洲狮的正面对抗中并不能真正取得理论上的优势,尤其是美洲狮卡好点位开始卖头的时候。 综合评价: 强的过分的兽性载具,但并非无死角的强。 今晚的72AV胜率大概在50%左右,以往我这个权重的胜率是44%。
关于2s38我的评价是,保持清醒别急着反智 调侃几句游戏强国差不多得了,结果已经有人开始指着hstv说惨了,纯纯的反智。 这玩意儿才刚发一个dev,目前连权重、俯仰角、弹药性能、双机速度,锁定原理等等都不知道就已经开始骂了。 苏顶碾压了一年把一些人脑子一起给压没了是吧? 另外就是也别急着买,容易上了bwd的当。 想想9.3打r60m的苏25k,不也光速去了9.7? 那些觉得这玩意儿秒天秒地的想冲动消费的阜南,我只能说看好你自己的钱包,到时候爽几个小时直接单车去顶级房坐牢 我知道你们很急,但你们最好先别急,让子弹再飞一会儿。 钱包和玩游戏的时间都是你自己的,别让那些冲动的情绪主导了你的思考能力。
一二代热成像的区别值0.3权重的话,有无热成像至少值0.7权重 苏系组9.7队列,金72A+银72B+苏25k+米24p。 整个队列里就T-72b这个b是玩起来真的难受,永远先手挨打,永远被人先打两发才能找到敌人,没有半点主动权。 尤其是见了10.3和10.7那批大爹这玩意儿纯纯的血压车,被别人机动火力碾压,就挨打拿手 你真说他硬吧,纸面数据确实离谱,首上主装平均480。但这三角区占了首上四分之一 体验真的差,真不愿意玩这车。我72AV目前kd1.6,这玩意儿0.5。
全真改完这下彻底成大猫饲料了 10.7开始蹭不到盟军对轴心的9.7的房了。 bvvd:想炸机场用银狮换配件?统统去当饲料! 我艰难地进了两次改版后的房间,属实逆天,被堵着机场杀,起飞两分钟就不死鸟就来了 白板除了氪金不配玩顶喷是吧。
关于CV90105在周年庆前后的一些预测 如果周年庆打折了,以这车当前的数据大概率是要提到10.0的。 如果不打折,那应该会继续维持9.7权重。 按照以往的惯例,这个礼包是应该会打折的。 但毛子也有理由不打折,毕竟这辆车在当前版本其实是进行了一次替换,可以说是新的载具不参与打折活动
很少有游戏出了十年还在上升期的吧? 战争雷霆这魔法游戏,2012年上线,结果十年过去了游戏竟然玩的人越来越多了。 我2015年陆战公测入坑游戏,被这游戏的魔法和神必的平衡气到骂过无数次安东fm,bwd琴码火化。 结果七年过来这游戏不仅没凉,反而一年比一年火 我入坑那年一天最高在线人数也就陆战公测那年圣诞节破了十万,日常都是3-5万人在线。 结果2018年安东润到从军后,bwd正式成为总策划就开始坐火箭一样。 今年蹭了壮志凌云2的热度出了个F14A,结果F14A更新的版本最高在线人数直接突破17万,目前日常在线也有8万到15万。 这下真的蒸蒸日上了。
美系全真当火箭猴用哪个礼包机比较好? 我一看美系三个次顶礼包飞机,选择困难症犯了。 9.7的鹞产能高,虽然不能超音速但也飞的挺快,76发太空飞鼠一轮400分。 10.0的A10飞的慢产能差,84发火蛇+1000榜炸弹一轮900分。 10.3的F5C飞的快能超音速,但还是76发一轮400分,感觉和鹞没有拉开本质上的差别。
我想知道新版本的载具换皮率 感觉每一个载具出来都似曾相识 到底有几个不是换皮的?
R13M1比R60M更强是我的错觉吗? 我自己的体会 抗干扰性:没有差别,都一样见了热诱弹比BWD见了琴玛还要急。 过载性能:体感上没区别。真正考验过载能力的场景是迎头射击,而R60M迎头锁定能力太弱,等实际锁上了以后其实是拉不动过载的。 动力段:R13M1略胜一筹? 锁定性能:R13M1完胜,个人体感是全向5km左右大概率能锁上。 但是我仔细一看,R60M是4级研发件,R13M1基本都是一二级就可以打的
A4是不是首上加强了,今天一晚上芒果都没打穿 以前是一千米外打不穿,今天五百米内一次都没打穿过
【理财咨询】想着pdd载具这两天出手,买个苏25不会亏? 今天刚好肝出了三架po2,我看交易所上这期活动的三个载具都在50刀左右。 现在出手算上手续费能赚个40刀的样子,加上余额差不多够买个苏25了。 想着这次肝度不算高,过两天可能会有几千个人出来卖直接降到20刀 是马上出手好呢,还是说周年庆后等升值?
无人机这下被一刀砍死了,充分暴露了gaijin策划的低劣设计水平 提升了出生点数后,这次让无人机不再具备锁定能力了 终于,无人机不再那么逆天了。 之前版本的无人机出生就是稳定两个人头,现在直接砍成没有人头,几乎不可能打中移动目标了 再想想直接把无人机当成版本名的这个版本,到现在直接无人机废了,gaijin策划实在是太厉害了。
CV90105是真的初生 现在这玩意儿比当年XM1大队都逆天,开个72出去被恶心,开个96AP出去又被恶心 打不过就加入,你等着,我马上就买。 只能说你win了,bwd
首页
1
2
下一页