真·晕晕无双
真·晕晕无双
痛苦的思索永无尽头
关注数: 40
粉丝数: 475
发帖数: 10,361
关注贴吧数: 21
诶,你怎么知道我是jrpg老炮+异星工厂500小时 二十年jrpg老玩家,异度之刃三部曲都是二周目起步 异星工厂500+小时,戴森球计划300+小时 今年玩过的觉得最好玩的游戏是死亡搁浅2 该怎么说呢,冥冥之中仿佛和游戏制作组神交已久( 总之游戏已经关注两年多,好像最近终于要上线公测了 看熊人族直播玩还是很对胃口的,似乎有不少玩家吐槽四号谷地的流程,但我云下来反而觉得这段流程比后面的第二张地图更有意思? 隔壁几个主打大世界的二游都开服玩过一会儿,就玩法上来说都没能打动我,基本都是玩一会儿就放弃了 这游戏目前看下来玩法特别对我的电波 不过很遗憾,最近两次cbt我都没有获取到游玩资格 我对三测卡池的看法是大部分设定都能接受,包括角色池超过80抽不继承,其实作为一个非酋早就习惯了攒够井再下池子 有意见的地方是武器池的抽取资源主要是由角色池产出的副产物这件事,这个设定结合75%的歪率以及80发的大保底: 1、如果你角色池子提前出up欧了一把,除非直接放弃专武图鉴否则等于没欧,极其打击提前出up的乐趣 2、因为抽卡资源和角色池子随机性绑定,武器池不像角色池可以提前规划的比较清晰。欧了还好说,一旦你小保底歪了但大保底又不够,试图赌一把还赌输了,结果就是要么看着打水漂要么强氪礼包。 我知道拉个表出来综合期望并不离谱,但是这里面就是藏了一些很让人恼火的小陷阱在等待着某些小倒霉蛋掉进来。 你以为你欧了一把? 狠狠地惩罚你们这些小贪心鬼!
九鲨新品JF15K,我来当当小白鼠 前两年就看到他们家出了个不兼容任何itx的双风扇下压式散热器,当时就想能立起来做成双塔装4风扇就厉害了 堆出更多的鳍片和风扇不失为一种提高性能的途径 两年后我想的那个产品终于来了,不过新品遗憾多多 一是没用上JF13K同款回流焊工艺,穿fin有性能下降风险 二是用的是10020规格的冷门尺寸风扇,要是能再大点用上12025规格的就完美了,可玩性会高很多很多 所以这是个预告贴,过两天到货了试试效果
cinebench r23跑了个4.5万,只能说有点遗憾 抄了一套pbo参数手动限制250w功耗墙 超频倍率开到10x就开不开机,降到8x稳定过测 我看别人全核睿频能上5.4g跑个4.6万,我这个只能上5.3g跑4.5万,全程95℃顶着温度墙跑
移动办公本有没有推荐的 看了半天还是放弃了游戏本,去装了9950x+5090的台式机 但总归有一些移动办公需求,本来想上mbp,看了下m4的32g+2t直接奔着两万去了 果子东西是真的下不去手,他家内存和闪存比黄金还贵,说服不了自己当这个大冤种 希望吧友们能出谋划策看看,越贴近mbp体验的越好,预算在一万左右吧
闪鳞g300散热改装其二 上次发帖后,听吧友说改成尾部进风侧面效率更高,我自己尝试后确实如此 但是我上次用的尾部风扇是一个利民tl-b12extreme,这是峰值转速3000转的暴力风扇。在其进风面紧贴网板的情况下会有非常非常严重的风切声,吵的没法用。 最近想到了解决办法,那就是直接将其与阿萨辛4的尾部风扇调换,诶嘿,比最初没有任何改装前还要安静了。 cpu单烤温度更是比没改之前暴降10℃单烤fpu五分钟后温度稳定在89-90℃ 也借此机会重新调整了下两个加装的tl-b6b的安装,看起来更爽了
关于目前市面上3D辅助课程的感想 楼主本人最近一年从各大盗录课贩子那买了一堆3d辅助的录播,大概全部加一起就几百块(太贵的买不起 并不是说全部都看完了,有些课程讲的真的一言难尽就实在看不下去,然后也基本都是开1.5-2倍速看 不是抱着学画画的心态来的,主要是看看现在情况大概是个什么样,然后我也对3d出图流程比较感兴趣 各方面看下来的感想是: 1、大家都是兴趣班类型的,没有任何一个是奔着就业方向去的。 你本身就是行业内的人来学点新知识可以提高你的工作效率,你是个主要经营社交媒体平台的网红画师来学点东西提高你的技能水平,你是个萌新主要过来凑个热闹。 虽然说可能和大环境恶劣有关,但讲师们都几乎集体默认不分享任何对你进入真正的职场有帮助的知识。 讲师们自己其实大部分也基本和游戏行业无关。 --------------------------分割线-------------------------- 2、大家都很少讲美术基础,美学设计相关的知识。课程知识主要围绕软件为主,其次是3d建模知识,再次是出图效果。 讲软件是比讲美术更枯燥乏味的,很多录播我都是卡在了这部分放弃继续看下去。 具体是哪些我就不点名了,看盗录的就别那么厚脸皮了 --------------------------分割线-------------------------- 3、总体来说这些班值不值得去学看个人目标,如果你是奔着就业去的都不推荐,浪费你的时间。 适合想要拓宽技能树的有牢靠美术基础的人,或者想提升工作效率的职业大佬。 个人比较推荐t5,他的软件部分讲解的相对没那么枯燥。 粉帮老大也是t5班学出来的,我觉得他的审美比t5好,但是教学风格上我是更喜欢t5。 其他的不予置评了,毕竟是个看盗录的 --------------------------分割线-------------------------- 也欢迎大家分享下自己报的一些3d辅助班的体验感想
闪鳞G300散热改装 9950x+5090这机箱温度是压不住一点,看到b站有个up主(羽君sama)主分享的散热改装忍不住下单搞回来试试 拆装一次也是十分费劲 买了一包一字角码,到手发现尺寸有点小出入,上方的角码只能夹着用了 不过总归还是比较稳固的~全速运转也没有出现任何的额外噪音 两把利民tl6b总共¥17 一包一字角码¥5 总计¥22 改装效果如下,实际降温效果测试下来大概1-2℃也借着机会重新理了线,这机箱是真的难理线,花了差不多一个小时才弄好,最终效果也只能说还算能看
5090发售几个月了,有没有可用的12vhpwr折弯转接头/转接线? 某宝卖这玩意儿的问了几家都说不支持,不建议超过450w功耗的显卡用转接头 但是我装的是一个相对比较极限的小机箱,最好还是弄一个能折90°的
想整一套itx 机箱:闪麟L400+pcie5.0转接线 | ¥649 主板:铭瑄b850itx | ¥899 处理器:9900x散 | ¥2615 内存:金百达 海力士mdie 96gb(48*2) | ¥2099 硬盘:致态7100 4tb | ¥1838 散热器:axp120-67 | ¥173 显卡:映众5090耀夜(海外版) | ¥24699 电源:海韵PX1000白金 | ¥1599 都按某宝价格,总计¥34686 这个电源不知道能不能省,我自己有个海韵spx750白金闲置了 这套只看cpu+gpu的tdp功耗已经700w了,不知道顶不顶得住 咸鱼上还有更便宜的微星5090万图师,23699 别问为什么不上5090d,这玩意儿如果真的断供了那也没有保修了,为什么不上更便宜的海外版? 如果能缩一下电源换咸鱼显卡,还可以预算加到主板换rog的了 不过感觉没啥必要,电竞牌子说白了就是花钱买超频能力,我这itx散热能力太差了没什么超频潜力
海韵spx750能不能带动9900x+5090 机箱:闪麟L400 主板:铭瑄b850itx 内存:金百达 海力士mdie 96gb(48*2) 硬盘:致态7100 4tb 散热器:axp120-67 显卡:映众5090海外版 电源的话我有一个闲置的海韵spx750,关闭pbo显卡也不超频差不多就刚好在电源的稳定输出范围内 不过闪麟这个机箱也可以用ATX,所以也考虑再买一个海韵PX1000,这个就比较稳妥
今年神船还是路边一条吗? 17999的14900hx+5090有一说一,有点心动了 这老模具加上老工艺的cpu确实性能发挥估计没什么可期待的,但架不住便宜啊 特别是24g显存的5090,独一无二呀
黎之轨迹3——不,应该说是界之轨迹1 本作的剧本属于是最极端的先射箭再画靶子了,都不带演的,主角团三线都对主线没有任何推进作用。 为了讲一个刻奇故事强行做了一整个和故事本身没有任何关联的游戏流程。 游玩本作时久违的体会到了闪之轨迹2的那种绝望感。 出场角色人均谜语人,知道点东西也打死不透露半个字,就看你们这帮小丑主角团在那瞎忙活。 一切都被人家安排得明明白白,让你玩那三天游戏流程纯粹是陪你过家家,顺带寒暄***脉关系。 相比之下前作黎之轨迹2在我心中都变得没有那么难以接受了,起码最后结局不显得主角团像一帮小丑。 写本作游戏剧本这帮人是真的甲级战犯,排着队隔一个枪毙一个都必有漏网之鱼! 这真是我行我上了,我随便动动脑子都能想到更好的做法: 1、首先把共和国明面上筹备载人航天计划但实质上举国备战的状态作为大背景,引发主角团(包括隔壁帝国与教会组)的调查。 2、三线主角团完全可以做成类似创之轨迹的跟随一条线索不断切换视角来逐渐揭露残渣,AD,汉密尔顿的谋划与雷瓦汀计划的全貌。 随着流程的推进这三条线可以交汇,随着他们各自的立场引发冲突战斗,最终实现联合携手揭开谜底。 本作中这些悬念包袱在数量和质量上都是可以撑得起的,偏偏他们要当谜语人! 3、学妹当然可以被牺牲,但是应当更多地铺垫她的心路历程,而不是这么的突兀。顺着这条线完全可以讲清楚她这家族的这些事,而不是一股脑丢到乐园的回忆水晶里面! 4、教会和结社应该给出更加过脑子的描写,而不是高矮个子组合直接跳反,妹妹头西装男在哪都能带个大哥打酱油美其名曰“见证”。 我是说假如:冰火娃本作登场之初就是作为汉密尔顿的保镖,被她的人格魅力吸引,但随着不断揭开的真相使他们内心有着激烈的思想斗争最终还是坚定的站在教会的对立面。 再比方说:绿毛小丑这帮人的所有正面戏份都可以删掉,本来就没你的事儿,你来刷什么存在感?为了强行给流程注水吗? 5、狮子直接滚出主角团,和剑仙坐一桌去。 主角团有你没你有什么差别?强行降低逼格,整个塑造一塌糊涂。 6、多给静名一些戏份,我是真的不理解最后你怎么就放了黎恩鸽子莫名其妙加入4spg的。 本作最后迷宫静名加入的时候我第一反应就是你集把谁啊?和你很熟吗?你是没有自己的工作要做吗? 7、眼镜哥跳反能不能加点铺垫? 你法在共和国篇是真的很喜欢突然引入任何铺垫但是强的离谱的角色,前有史上最强猎兵,在前两作里已经被玩家喷烂了都。 毫无人格魅力,强的莫名其妙。 本作更是离谱,没有任何戏份的结社突然来了个足以和马克邦相提并论的幻术师就不说了,结局蹦出来个跳反眼镜哥。 直接能从地球空间跳跃到宇宙,不是哥们儿?你这么强还要什么火箭,直接造他十几台王者之剑几百发核弹传上去说不定早就把是那破盒子连带0骑给炸死了。 能时间停止,能从平行宇宙拉分身来战斗这种bug级的就更不用说了,马克邦都没你这么神棍。
一个普通上班族两周后总算通关了黑神话悟空的感想,聊聊剧本 两年前法环那会儿我还能一周内通关,现在年纪大了,打游戏也没有那么上头了。 慢吞吞的也算是通关了,其实也一直在网上关注游戏的咨询,跟着攻略打了不戴金箍的结局。 首先是争议最大的一点——黑神话悟空剧本改编是不是不尊重原著? 我认为是的。 我对原著的理解一直都是在一定程度上影射作者所处时代现实社会现象的神魔幻想故事,原著中几乎每个角色都写得栩栩如生,神神佛鬼怪都描写的市井生活气息十足。 但主线的根本还是讲述师徒四人在旅途中磨练心性,证得大道的故事。 原作没有否定取经成功,功成正果是好事。 而黑神话悟空已经说明的故事再结合一些刻意的留白,游主创团队确实有意引导玩家去否定取经这件事的成果,这也就是非常彻底的否定原著了。 其次,黑神话悟空的剧本是不是阴谋论? 我认为是的。 原著中作者虽然极尽讽刺神佛妖魔无任何区别,有时候细想妥妥的就是一部职场官场厚黑文学,但并没有对这套世界观制度有过本质的批判与反对。 六界众生在这样的轮回下依然是维持了一个长久的秩序。 而黑神话悟空的剧本从本质上就反对原作构建的这套世界观的合理性,并二创增加了灵韵这个延长仙佛寿命的资源。 还让神佛垄断了这项资源,进而引申出了阶级矛盾使得游戏中一部分角色的行为具有其合理性。 最后,黑神话悟空是不是抹黑了悟空的形象? 我认为没有。 关于原著的形象到底是什么样我就不想说了,各人的理解不同。 但本作的悟空是一个有成长曲线的复杂形象: 1、取经时期,他是真的服了,怕了。他对牛魔王说的那些话十分清晰,可以看出他真的没得选了。在取经这一路上他干的好事坏事,皆是身不由己。 2、修成正果时期,悟空还是受不了这个神佛压迫世间劳苦大众的制度,他对八戒说:这供品,本该给那种地收菜的人吃。我们吃了,他们就少吃一点。 3、辞去佛位时期,宁愿死也要追求自我的自由。相信即便自身兵解消散,将来也会有后继者收集继承他的根器成为一个全新的无拘无束的齐天大圣。 我很喜欢这个形象的悟空,这是属于游科理解的那个悟空,也恰好很对我的胃口。 我喜欢这个剧本吗? 我觉得我还挺喜欢的,但是这个剧本很明显有大量的缺失和关键事件情节交代不清,或者有意模糊的情况。 根据对冯骥的采访他说本来计划做13章,最后发售只有6章。可能是这个大改导致了现在剧本的问题吧,就挺遗憾的。 我不认为这个剧本烂,但我认为这个剧本还不够好,还有提升空间。 他有一个不错的立意,有一个很好的框架,有一个宏大的格局,但缺乏了实质的骨肉血水去填充丰满。
x399平台组桌面端的渲染&AI训练平台性价比如何? 2024年了,新的平台看一眼感觉高攀不起,打算找点往年的垃圾玩。 再一看trx40也挺贵的,继续降档,最后看上了tr4。 价格是从海鲜市场上看的 x399 taichi板子大概1000 2990wx大概2000 2080ti22g的双槽卡大概2600,入4张。 这卡也只支持双路并联,4卡就直接走pcie了,省下一笔nvlink开支。 反正我纯个人玩家,不在乎效率。 其他机箱散热器内存条之类的就不算了,1000左右应该搞定。 总成本控制在15000以内,最终得到的这套配置性价比怎么用?
游戏开发者为何如此热衷于教玩家怎么玩游戏? 3.6号地狱老司机2发布第一个平衡补丁,修复了玩家玩的太舒服的bug 然后3.6/3.7这两头平均每天收获了2000条steam差评。 具体来说就是削弱碎裂者,蛋盾,磁小鬼这三个在难度6以上任务中表现相对正常的武器。 然后守卫任务需要击杀的怪物数量再翻一倍,其他任务的怪物刷新频率再加一倍。 加强了几个无关紧要的玩具武器:比如喷火器,这玩意儿即使现在dps翻倍提升也不会有人带去高难任务玩的,生存性就是个笑话。 为什么碎裂者,蛋盾,磁小鬼这三个是相对正常的武器呢? 因为没削弱前难度9的任务通关率也不高,目前游戏中玩家的火力实在是太过于匮乏了。 然后,现在从7难度的任务开始水平一般的野队就已经很难通关了,难度9的任务哪怕是4个40级开黑通关率也不敢说稳定通关。 他们开发人员跑出来说:我就是想让游戏变成这样,削弱个人的火力,使团队合作变得更加重要。 意思就是独狼野队玩家不配打高难度,你买了他们的游戏算你倒霉,他们压根不欢迎你来玩 我已经steam差评奉上了,这游戏运营就是一坨。
【长文】时隔一年,stable diffusion有哪些变化呢? 差不多一年前的这个时候,在了解了一些NAI的信息后我开始在自己的本地电脑上部署了当时的sd1.5的生态。 但玩了几个月感觉没意思了,就放下了。 这段时间刚好有点闲,回去看了下SD的最新版本,也就是SDXL。 感到乐子不少,就打算回坑玩玩 首先介绍一下SDXL是什么,SDXL是SD1.5这条技术路线上的终极产物,里面技术细节就没什么特别多好说的。 总而言之就是SD1.5的超级加倍版,参数量翻了几倍,摸到了人类对图像感知的临界点。 具体来说就是学啥像啥,不像SD1.5那样图像风格高度一致,看多了都是一眼AI。 虽然SDXL在绘图能力方面追上了midjourney v5,但受限于clip的性能,其并不如mid和niji那么方便易用。 但好在SDXL依然维持了stability ai的传统——真·开源,这使得该模型在用户社区中有着非常好的可拓展性以及无可比拟的可定制性。 你说是吧,close ai 下一代SD,也就是SD的V3版本在这几天也公布了一个预览版。 应该是受到了openai的dall e3的启发,他们用上了新的diffusion transformer架构,同时可以确定他们彻底抛弃掉了clip。 stability ai接下来应该必然是全力梭哈这条技术路线,他们放出来的几个大模型预览效果都完全可以和open ai的dall e3以及sora比肩了。 而stability ai的CEO也都明确了,他们依然会保持开源策略(具体是否会有商用限制还要到时候再看)。 你说是吧,close ai 扯远了,回到SDXL上。 SDXL是去年七月初发布的,起初社区里的人都不太待见这个新东西。 因为对硬件配置要求太高,部署难度高,易用性太差,训练难度过高等等问题生态发展很缓慢。 但随着webui支持了其fp8精度下的推理,社区大神对其技术的研究,到最近一段时间SDXL的社区生态已经被建设的很好了。 比起潜力已经被挖掘殆尽的SD1.5,XL明显更加优异的绘制性能显然是更吸引人的。 那么回到画制片人老婆这一点,我还是看到了novel ai v3版本后才对SDXL的性能到底有多强有一个明确的感知。 NAI3可以轻易的通过作品以及角色名称的提示词,来精确还原出这个角色,还可以风格词来定制一些绘制风格。 甚至可以通过一些抽象词汇来定制图像的情感传达方向。 但是十分可惜的是,NAI3不可能再像当年那样被泄露出来了,现阶段想体验这个最强的SDXL还是需要付费的。 但好在,民间大神也不甘示弱。 比如Animagine XL,他们在最新3.0版本里同样实现了和NAI3接近的效果。 实际上,这个模型使用了和NAI3类似的数据集来源和打标方式,但明显他们的数据集规模和打标强度要差不少。 它的性能距离NAI3还是存在不小的差距,但丝毫不影响其是目前为止开源社区里能被免费使用的,性能最好的二次元模型,没有之一。 例如输入【miyu/koharu/mika,blue archive】等提示词,便可以分别生成这些人设还原度较高,且十分精美的图像:而从这几张例图可以看出,得益于XL模型在噪声随机分布方面的改进,已经很大程度上脱离了此前【一眼AI】的尴尬情况。 图片的明暗分布变得更加自由,更符合人眼的常识。 但这种程度的东西对我来说还不够,要解锁一些更加进阶的玩法那必然就要涉及到微调,定制自己更加中意和喜欢的模型。 我对这个模型目前的意见是: 1、色彩对比度偏灰,我对二次元艺术的喜好偏向于更高的对比度,更强烈的色彩风格。 2、角色的造型太普通了,我需要更加独特的,符合我的喜好的造型倾向。 于是我花了点时间,收集了二十几张我在网上浏览时发现的符合我喜好的作品。 【为避免争议,所有收集而来的作品均为原发布者声称为AI生成的图像】 在打标完成后,将Animagine XL 3.0作为基底大模型,调好学习画风的参数就丢进炼丹炉就开始训练了这个lora了。 我还配置了卷积层维度相关的参数,训练成了lora的变种模型,也就是lycoris。 经过一段时间的等待后训练完成,我根据每次保存时生成的样本图筛选了几个版本出来进行对比。 使用webui的xyz脚本功能生成如下表格:综合对比下来,cute_v3_02这个版本我最满意。 画风学习的比较到位,且并未发现明显的过拟合现象,手指错误相对较少。 到这一版本应该是训练了21*25*3=1575步。 XL训练lora的效率比预想中的速度要快很多,在SD1.5版本中,应当是在2000-3000步左右才能获得相对效果较好的画风lora。 cute_v3_02版本的四张测试图片:除了肉眼可见的偏向于萝莉、可爱风格外,还有着橙红色的线条、粗描边、扁平化的材质等特征。 色彩显著偏暖,亮度较高,明暗交接处有橘色的描边。 仅用21张图片作为素材,就可以微调到这么出色的效果,可见SDXL的性能和潜力。 感觉又可以玩上一段时间了
游戏设计中的弱引导的反义词不是强引导 近些年各大游戏媒体对两代开放世界塞尔达与艾尔登法环的高度赞誉总是会提到他们开放世界设计的精妙,其中总是避免不了提到他们的【弱引导】设计。 以至于与之相对应的传统的【强引导】都快要被污名化了,我觉得有必要讨论一下这个现象了。 弱引导不是不设计引导,【无引导】是摆烂和设计拙劣的体现,不是弱引导。 拿艾尔登法环举例,法环的开放世界中充满了各种精心设计的弱引导: 1、游戏中始终会在玩家的可活动区域内设置一个非常显眼的引导地标,如大小黄金树,城堡/要塞/遗迹等等。 其中有着玩家大多数时候都能看到的显著地标,如大黄金树、神授塔;也有着玩家登上了某些高处时才能看到的小地标,如各种城堡、遗迹。 2、游戏中大地图区域的自然景观有显著差异,从平原到湖泊;从火山到黄金高原;从猩红腐败到苍白荒芜的雪原;甚至还有神秘寂寥的地下世界与古老破落的天空之城。 3、在墓地的入口前的显眼处总会摆放发光雕像引导物,在洞穴的入口处总会摆放会发光的蓝色水母。 这些设计是环环相扣的,在玩家自发对游戏开放世界的探索中无形的引导玩家前往各处兴趣点。 这些种种设计均深度参考学习了旷野之息,甚至法环的地图工具功能都与旷野之息高度相似。 但同时法环的部分引导设计是直接摆烂的状态,就比如NPC系统。 FS社直接从自己的箱庭魂系列游戏中把这套东西直接原封不动搬过来用了。 虽说他们后续更新优化了部分,但结果上来看勉强够个及格分。 我们可以说制作组对这部分并没有经过深思熟虑的设计,导致子系统(NPC)与主系统(开放世界)有明显割裂的表现。 那么与之对应的,旷野之息/王国之泪的NPC设计就是不折不扣的强引导。 除了传统固定的功能性NPC,他们还把所有的主线支线都整理到了一个记事板中,涉及到的NPC触发事件点直接标注到了地图上。 从结果来看,这种强引导设计给玩家带来的体验是远好于法环的“弱引导”或者说无引导的。 那么我可以得出这样一个结论: 弱引导的反义词不是强引导,弱引导的反面是无引导。 假设有这么一个横坐标:左边是弱引导,中间是强引导,右边是无引导。 那么越靠左,必然是设计强度、密度越高的。
器材党的最终归宿还是买原厂 今年618入坑,先买了A7R5+腾龙35150。 这套组合玩得很开心,虽然现在还是拍依托,但是这是我的技术问题和器材没什么关系。 我也很喜欢这个镜头,只能说除了重没有任何缺憾。 作为一个人像头光圈的足够大,焦段覆盖很满足,对焦很棒。 焦外表现一般般,但是起码可以说并不丑。 只要你能接受它的重量,那选择了它你基本就可以告别其他任何人像变焦了。+ 最近的样片,如上,使用35端F2.8拍摄效果。 这样直直的怼着闪光灯拍都没有出现明显的对比度下降和炫光,真的已经让我没什么好苛求的了。 这就是E卡口人像变焦镜皇无可争议吧? 本想着一步到位,一个镜头解决大部分需求,但35150用了半年还是觉得腻了。 新鲜感一旦消散,就老想着买点新的东西玩玩。 但腾龙这个大变焦在手,其实已经让我对所有的原厂+副厂24-200之间的变焦头失去了兴趣。 于是把目光转向了大光定,经过半个月的仔细调研,最终我锁定在了两颗50gm上。 找了个时间去了索尼的线下店实际体验了一下,其实去之前我是基本确认了501.4gm的,毕竟更便宜以及轻了整整200克。 但实际体验完之后,501.2gm让我认定了就是非它莫属。 然后就是大出血,带回家牙都咬碎了。带回家后,拿家里的猫试了试。如上,都是开着最大光圈大概0.5m的近摄,虚化强无敌。 明天去萤火虫场内再试试,找几个coser拍拍看看
装甲核心6打完了三个结局,理解了为啥媒体普遍对本作剧本打差评 游戏早早买了,打了一个结局跑去玩伊苏10了,然后伊苏10打完回来接着打。 我的顺序是一周目共存,二周目点火,三周目补完。 这几个结局一个比一个离谱,共存就是啥也没干让企业继续祸害卢比孔,点火就是卢比孔城市化率太高了,而补完更是重量级。 这个宇宙城市化率都有点太高了是吧? 不是哪个结局更好哪个更差,而是621来到这个星球到底干了什么? 621并不是一个只会服从命令的工具人,无论是沃尔特还是艾尔,抑或是卡拉战友瓜伊苏密西根等等等等角色,他们的情绪丰富度都仿佛是从各种机战动画里穿越过来的。 而621会受到他们的影响,改变自己一开始只是赚点钱做个手术过上常人生活的目的,去达成游戏的三个结局。 要知道这三个结局可不是谁的安排,是主角亲自去推动达成的。 但这三个结局又是那么的离谱,割裂感太强烈了。 拿我的二周目选择来举例: 我继承了沃尔特的遗志,和一直相伴的艾尔分道扬镳,与战友在卡门线上激斗,最后还要去卫星炮上与一路陪伴支援着我的艾尔做一个了断。 每一处转折点都可谓充满了立场与情感的激烈交锋,但如此荡气回肠的激斗之后迎来的结局却那么空虚。 这让我怀疑是宫崎英高写了一个世界观和剧本大纲,但是具体内容却交给了山村胜等人来填充一般,落差太大。 这些积累下来的情绪没有一个宣泄点,打完三个结局后只是感到了空虚和意难平。
【锐评】伊苏10——祖宗之法 当我第一次听说黎轨2和伊苏10是连续推出的时候,我对黎轨2的质量就没抱什么期待了。 falcom的传统就是这样,当伊苏和轨迹撞档期的时候,轨迹总是会被献祭掉。 毫不意外,黎轨2刷新了falcom的游戏剧本下限。 但伊苏10给我的感觉就是出乎意料,但也在情理之中。 JRGP化,或者说轨迹化是伊苏8代以来这个系列最显著的转变。 主要角色的出场数量越来越多,主线流程越来越长,相应的凑数的游玩内容也越来越多。 但好在每一作的亚特鲁都会彻底刷新上一作的包袱,剧本的创作自由度是很高的,不像闪轨4部曲既有空零碧珠玉在前,自己也有系列史上最庞大的叙事包袱要解开。 如同伊苏8那般出场角色众多但依然能描绘出丹娜这么出彩的角色对falcom来说估计也是超常发挥。 伊苏10的好兄弟并没有被脸谱化,但作为本作的绝对主角——卡嘉和丹娜比还是差了些。 她挺可爱的,但归根结底红发浪荡子注定不可能与她交集过多。从细微处看本作缺少足够的情感传达,从宏观来看本作剧本的格局立意又没有亮点。结果就是整体叙事体验比较平淡。 而谈到剧本,伊苏10在走了789三代轨迹化后又换了一个方向。本作出场角色依然众多,但能称为主角的就只有两个可控角色了。 或者进一步说,我们的好兄弟卡嘉就是绝对唯一的主角,毕竟红发男真的没话说。 缩减主角团这事儿对伊苏10来说其实是有好处的,起码不至于把大量笔墨和预算拿去用到一堆脸谱化的角色身上,这就给了流程关键时刻以充足的资源来深入刻画主要相关角色。 与之对应的,本作的战斗系统也进行了一波前所未有的大改。 从系列过去几作的轻度快节奏ARPG变成了相对慢下来的,以外界交互应对为主的偏硬核ARPG了。 本作的核心玩法就是精准格挡,通过积累仇恨倍率在敌人输出的间隙释放技能打出高额伤害。 以往的单人小技能在本作高难度的战斗中存在感被大大降低了,本作也没有了技能熟练度奖杯。 而被加强设计的是boss的招式,玩到中后期boss甚至会丧心病狂的连续交替释放红色攻击与红色攻击,操作强度极高非常考验反应力。 但游玩乐趣是真的很强,高难度下击败敌人的成就感也不错。 并且本作还有隐藏的韧性与明面上的护甲值设计,整体交互十分出色。 不再是系列过往那种玩家和敌人缺乏互动反应的陈旧感,系统设计是能让人明显感到在往时下流行的重视即时游玩反馈的方向靠拢。 总的来看,伊苏10这个游戏的外包装看起来非常的陈旧,但内容的改动与跨步之大确实令我感到惊喜。 尤其是这几年falcom游戏演出效果的进步速度之快,弥补了当年以闪1劳拉大战菲为代表留下的法社演出尴尬笑谈。 缺点是游戏的美术与图形技术还是太粗糙了,虽然现在互联网上jrpg老害们总是在叫嚣画面不重要,仿佛他们的声量能覆盖整个玩家群体。 但游戏图形技术与审美的重要性确实是电子游戏的一部分,也是被包含在广义游戏性之中的。 从伊苏10来看falcom的员工们对创新进取的热情并未消退,但还是被戴上了名为技术力的镣铐后才被允许起舞。 优点: 全新的战斗系统趣味十足,十分具有挑战性。 演出效果十分出色,即使画面显得那么廉价粗糙也丝毫不影响游玩时的视听享受。 缺点: 美术和画面和当今时代脱节严重。 流程注水。 可以预见的是伊苏10奠定了未来数年这个系列的发展方向,它吸收了系列过往的那些精华,又积极的从外界汲取了新鲜的设计元素。 我认为这个游戏就是falcom自伊苏8以来,他们推出的最具有诚意也是最好玩的游戏,推荐给所有不介意画面表现力的ARPG爱好者。
对于二次元摄影的一些体会和总结 CPGZ第二天拍的泳装阿米娅镇楼 就是说,从七月份开始去漫展拍照到上个月cp结束,拍了有两三千张了。 我发现漫展摄影的本质其实并不是拍还原二次元。 真正拍摄出来有质感的,看起来比较高级的作品都是借用二次元的风格设计,再用三次元的元素来实现有取舍的还原。 大部分二次元作品其实都是用色块和光影来交代概略地信息,对于材质和设计细节其实描绘的有限。 在这种情况下,还原的自由度是比较大的。 然而如果一味的去追求还原作品的平面感,那么多半很容易拍出【明明已经很还原了,但是总感觉差点什么】的照片。 所以其实在服化道上就已经决定了一组cosplay摄影的上限了。 当我们去夸一个coser:【你今天出的角色好还原哦】 其实并不一定指的是真的那么还原,更多的是在不脱离原设的基础上做出更加讨好人眼球的二次创作。 这就很接近二次元作品改编真人的方向了,或者叫影视视觉转化实现。 我最近也在构思一套cosplay创作拍摄,感觉投入越来越大了。 请模特是一笔钱,租棚子这些就不说了。 买道具服装,做假发和妆容这些更是要大量的时间和精力以及金钱。 策划一次拍摄并不简单啊。
【器材党】买了个碳纤灯架 上次去漫展机顶闪拍的小姐姐镇楼两百多带票,感觉性价比还过得去。 然后这个东西怎么说呢,感觉太极端了,极端的减重。它甚至连铝合金脚架都要做成镂空设计。 然后直接好处就是轻,整个架子620克左右,完全收纳的情况下不到0.5米长。 但坏处是承重能力几乎接近玩具级别 商品页面上说可以承重2kg,我表示怀疑。 我光放个v860三代裸灯上去,全展开的情况下(2.1米)晃晃悠悠的。除非有人扶着或者脚架通过绳子等手段进行固定,否则基本不可用。 更别提上些附件了,正常情况最大实用高度应当是展开三节,高度大概再1.8米左右。 而且只能在室内使用,室外摔倒的风险太大了。 下个月带这个去艾妮展拍拍看,控光附件带一个神牛33寸柔光伞(这玩意儿真的便宜,二十块)。 效果好的话,后续应该会再购入两个ad200pro,组一个三灯。 我们器材党是这样的,总感觉器材设备不够多不够用 摄影和器材玩起来都挺有乐子的,手头也有点闲钱,就接着烧器材了。 接下来的问题是该怎么拉小姐姐过来拍照了,要克服一下社恐了
第一次去漫展的返图 展子是上周末的广州CICF。 拍摄设备是A7R5/腾龙35150,灯具是神牛V860Ⅲ。 拍了三四百张下来感觉大部分都是废片,挑了几张个人感觉不错的返图了。 拍摄技巧还是需要继续学习,这周末去萤火虫场外看看
一个人去拍漫展的一些体会 上周末去了广州这边一个小展。 因为是单兵作战,为了尽量保证能拍亮人我还是带了个v860三代和一个柔光硅胶球。 A7R5+腾龙3510+灯具,一套下来拿在手里的重量就已经超过6斤了 吃完早饭九点半到场,下午四点离场,算是拍满了一天。 手都要断了,缓了一天还有点疼。 结果这个闪光灯只能说有用,但不好用,三四百张看下来还是在别人搭的灯阵边上蹭拍的比较满意。 人家常亮灯打下来就是有故事感,对模特的修饰和突出也十分有效果 我机顶闪拍出来整个模特都是平的,服装细节啥的也不好看,这些东西后期也很难补救。 计划下次准备三个常亮灯去拍了,也正好搞个推车,杂物都放车里带过去也不用那么费体力了
当社恐第一次去漫展 广州八号线那边周末的一个小展。 全程都挺尴尬的,和陌生人搭话拍照太难了,基本上全程没搭上话。 主要是蹭拍,蹲在别人搭好的灯阵边上偷照片拍完就跑。 然后鼓起勇气找了个妹子搭话,总算拍到了少数几张模特正脸对我的 经过本人同意可以发布。
【AIGC】请问,有幸成为你的新娘么? 这次想要尝试突出角色的梦幻感,以角色的描述为主,将背景模糊处理了。 浅景深是模仿了长焦大光圈镜头的突出主题,压缩背景的画面质感。 几乎没有面光,这是因为我用到了发光的眼睛这个提示词,这个提示词具有压暗面光让眼睛成为一个微弱光源的效果。 再就是考虑的就是突出梦幻质感,而梦幻的事物是现实生活中几乎不可能存在的。 于是我选择了粉色头发粉色眼睛以及一个光环作为这个角色的特征。 辅助画面构图的元素选择了花与羽毛,这些元素本身并不承载太多内容,只是增加一些看点。 天气选择了黄昏,斜射的阳光烧红了云层带来了天上的暖光,同时大气折射带来了地上青蓝色的冷光。 完美,十分的梦幻。 下一步开始调试各种提示词的组合与参数,最终确定下来是粉发少女的花嫁这个基本主题。 花费了不少时间去抽卡。 其实中间跑了很多张我感觉不错的,但始终还是这张比较情感表现力。 最后用数位板和ps加了几笔,主要是修正手部和其他一些细小错误。 老规矩:AI生成内容无版权,可随意取用。
【AIGC】夏天到了,来点雪糕 这次整了个4K大图,可以放大看。 不过AI一如既往很难把手和脚画好,还是比较难舔的 老规矩:无版权,可随意取用
【AIGC】繁星盛夜 本次主题我想到的是尝试一些异常梦幻,不太真实的华丽事物。 还是老办法:什么人、在什么地方、干什么 但我这次有点懒,或者说脑子里没有什么特别明确的概念。 于是我尝试用AI来帮助我构思,我尝试了几个关键词,最终定下了【星空】【女巫】【异世界】这三个基本主题。 接下来就是从大到小的一步一步确定画面的构成了。 1、首先我想让画面尽可能突出整体的对比感,也就是远处【城堡】的与近处的【女巫】互相呼应但又有着明显的对比反差。 于是我在画面风格提示词中添加【插画】【风景】等强化构图的戏剧性与拉开距离感。 2、接下来我该确认画面中的具体构成,此时灵感还是不够。我填入了【星夜】【一位女巫】这样没有特别明确指向的提示词,期待AI能给予我更多灵感。 于是反复迭代数次后,我确定下来是【星空下,一位女巫站在山坡上,望向远处的城堡】。 3、迭代数次调整提示词,最后获得了一个还不错的效果。 老规矩:AI生成的内容并无版权,可随意取用。
【超出预期】腾龙35-150mm f/2-2.8 Di III VXD 这头我是前两天下单的,全部优惠下来是12300(24期免息)。 今天上午送到,尽管我做好了这颗镜头很沉的准备,等真正挂上机身的时候我还是绷不住了。 实在是太tm重了 装上A7R5后感觉像是拿了个杠铃,体感重量接近5斤。 下午赶紧出门去试试。 虽然很重,但这下爽到了。 我测试下来大部分焦段锐度爆表,从中心到边缘都没有感受到那种不可接受的劣化。 焦外柔化效果也可以说超出了我的预期(本来预期较差,结果拍出来虽然谈不上特别好,但也不确实不差)。 也拍了人像,但是不方便放出来。 总之就是数毛党狂喜,85端光圈全开能把脸上的汗毛都拍得清清楚楚。 100以后能明显到锐度是有降低的,但是依然很不错。上图是小米13拍摄。拍了一下午回来检查了下,暂时还未发现进灰。我还想着日后补一颗150600,暂时是没有想法了。 真的太tm重了
A7R5这机器总体上我很满意,但个别地方我实在不理解。 屏幕是真的很好,反正我觉得除了屏幕小了点,亮度和色彩以及清晰度完全不输给我的4k27寸显示器。 而且屏幕可翻折角度出乎意料的大,就很爽。 机身虽然比我手里原来这台A7M1重了一些,但是握持手感实实在在的飞跃性提升,体感上甚至觉得握着这玩意儿比A7更轻松 接下来就是槽点了。 这机器打开卡槽盖的时候必定和那个金属耳挂产生挤压,每次打开卡槽我都很很不爽。 然后就是二层转盘模式切换这个设计本身是没有问题的,还挺好用。 但是上方模式转盘的保险按钮手感巨烂,限位解除点十分的模糊,鬼知道要按下去多大力道才能解除锁定 每当我想切换上方的的模式的时候,我就要把自己从拍摄的状态中完全拖出来,去想办法伺候好这个保险按钮。 索尼,谢谢你,让我花了两万多还要体验这种电子酷刑。
【暴论】新手第一支镜头还是买中长焦更实用。 我自己就是一个新手,我的第一个镜头是个2870的套头。 结果我发现我真的不会玩广角 我真的爱死长焦了,拉的越远囊括在镜头里的东西就越少,就越容易出效果。 35mm以下在我手里毫无用武之地,强行要拍结果没一张满意的。 拍星空?拍风光? 我感觉拍照首先要有构图美,视场里囊括进去的东西越多越是难以构图,不然很容易拍出“旅游照”。 我知道可以后期裁剪二次构图,但是新手不一定懂。 学习拍照也是需要有正反馈的,上手就是广角很容易给到入门学习者负反馈。 而中长焦就不一样了,内容少真的容易构图,很容易给入门玩家一种“原来我也拍得不错”的感觉 虽然很反直觉,但我真的很推荐新手入门第一支镜头这样选: 直接50-70焦段起跳,或者大变焦比如28-200。 焦段越长越爽,提前步入老法师阶段
618入手腾龙35-150合适吗? 这种价值上万的东西只考虑带票的国行。 有点疙瘩的是一个副长卖到了原厂顶级规格镜头的价格 但是35150这个焦段太香了,简直无敌。 备选项还有2470GM2和70200GM2,这两个之所以是备选项是有原因的。 我自己本身有一个2870的狗头,我拍下来的感觉就是35以下的广角对我来说基本没用,而70还不够长。 然后70200GM2我已经盯了好久了,这镜头被认为是目前E卡口综合素质最强的变焦头,也是我的梦中情头。 就是国行带票的价格去到将近两万了和腾龙35150的差价够我买几套大功率灯了。 我都买这个焦段了肯定是要拍人像,要买灯的嘛。 最后说一下我的情况,方便吧友们出谋划策。 目前手持的机身是A7,然后有个2870套头。 主要喜欢拍的是人像,拍糖水片。偶尔扫街,会去漫展拍。 机身确实有点老了,计划等A7R5换代降价的时候升级一下。 我很喜欢找各种稀奇古怪的角度拍,没有一个可活动范围够大的屏幕取景器的机身不考虑了。
【新手入门】在2023年十使用A7+FE2870F3.5-5.6是怎样一种体验? 本来预算是在1w出头入手A7R2+适马2875G2的,我都快下单了,结果我朋友听说我想买相机直接问我要不要买他的传家宝。 然后我就看到这台成色基本全新的A7初代 据他描述,买回来带出门拍照次数不超过5次,快门总共按了不到500次。 真没想到一个十年前的数码产品能这么新。上图由徕卡(小米13)拍摄。 这个成色我也没啥好说的了,直接整套3500拿下,主要脸皮薄没敢砍价 入手体验了一周,怎么说呢,就感觉这狗头是真的狗。 也不是不能用,就是感觉成像质量没法放大看。 机器本身倒还好,找了几个入门视频了解了一下曝光三要素就出去拍了点东西。 就是机身本体没有防抖,镜头也没有防抖,开快门优先成片概率十分感人 下面几张是今天带出门拍的,LR套了个自带的预设,也算是我的入门几张作品了。
【AIGC】白裙少女们的旅行 这已经是这个系列的第二波了,与第一波提到的大部分技术细节是一样的:https://tieba.baidu.com/p/8442594548 这次主打旅行的主题,进行一下扩展,也就是什么人在什么地方做什么? 我脑海中浮现出来的画面是【白裙少女】在各种【风光】中走过,但一个人还是太孤独了,为了破掉这个孤独感我的选择十分简单粗暴——加人。 不仅要将旅行者增加到两人,我还要她们牵着手,强化两人的联系。 我尝试了正对镜头与背对镜头两种构图,最后发现效果都挺不错的,就都保留下来了。 画面风格刻意模仿了相机,使用3:2的画幅,保持前景的虚化效果来突出人物主体。 因为是旅行和双人主题,我增广了拍摄镜头的焦距,为了实现这个效果使用了风景相关的提示词并增加其权重。 风景相关的提示词又自动关联上了【大气透视】这个现象,使画面中远近层次被拉开了,赋予了光影与色调更加高级的质感。 最后的效果是人物的特征被略微弱化,增强了整个画面的平均观感,变得像是旅游照了。 同时白裙少女牵着手去旅行这个意象很好的表现和传达出了了我对【二次元旅行题材】画面的幻想。 我想说的是,AI这种现阶段还不怎么好用的东西也是可以成为一种表达与创作的工具的。 在我看来这些工具和儿时用来涂鸦的蜡笔没什么本质上不同。 我们都没有什么独特的技巧,工具也不是那么好用,画出来的线条也都不是很听话。 但我们都想表达些什么,并用自己拙劣的技巧来尝试一下。 至于这样拙劣的作品有没有灵魂,谁在乎呢? 最后还是老规矩:所有AI生成的内容都是无版权的,以下所有图片均可随意取用。
【AIGC】花与校服少女 首先设置一套固定画面风格的提示词来保持画面的一致性,再更换场景与花的提示词来生成不同内容的系列组图。 依然是大量抽奖筛选,并未使用controlnet等技术来控制画面。 大模型是cf3.0,但这个模型有着太多额外的细节了。 为了去除这部分细节用到了Detail Tweaker LoRA这个lora,将其权重设置为负值使画面变得干净清爽,更加【二次元】了。 最后声明一下,这些由AI生成的图片都是没有版权的,可以随意取用
来简单介绍一下现在最流行的三个绘图AI吧 隔壁nai吧近期基本废了,感觉互联网上这种基础行业知识介绍的还挺少的,我来写一篇吧。 1、stable diffusion 这个是stablity ai公司制作的模型,也是世界上第一个真正意义上完全开源的基于扩散模型的绘图AI。 而novelai就是基于stable diffusion1.5进行微调后的商业发行版本,nai的出现也是互联网上彻底引爆ai绘图话题的导火索,虽然现在几乎没什么关注nai了。 stable diffusion的原始模型是这次介绍的这三个ai中性能最差的,其最后一次版本更新是在去年十二月。 但性能差也有优势,那就是其很适合在个人家用电脑上运行,在dreambooth等微调工具发布后更是直接把模型训练下放到了个人电脑级别。 由此,stable diffusion成为了目前世界上最亲民的ai绘图模型,现在互联网上大部分的ai生成图片均是由此模型及其微调版本生成。 第三方插件无数,开源社区每天都在开发各种新奇的功能。 只要你愿意研究,使用这个性能最差的模型也依然可以生成非常好的内容。 下图由基于stable diffusion1.5微调而来的Counterfeit-V3.0生成2、midjourney 由自主创业小团队开发的基于扩散模型的绘图AI,也是目前商业上最成功的图像生成AI。 其开发训练是闭源的,并且在快速推出新版本提供新功能,是目前世界上性能最好的图像生成AI。 目前midjourney最令人惊叹的是其可以使用不同的提示词生成不同风格的高质量图片,这意味其参数量十分庞大,对运行设备的性能要求极高。 目前midjourney凭借着易用,好用,且为用户提供生成图片的商用许可等特性,在商业化道路上走的十分成功。 其稳定高质量的图片甚至可以达到了商用的标准,国内外许多设计师已经开始使用midjourney辅助设计了。 3、nijijourney nijijourney是midjourney团队推出的专门针对二次元的绘图AI,可以认为是在二次元图片训练素材中进行了针对性微调的midjourney。 其绘图性能和midjourney保持一致,近期在更新v5版本后在互联网上也越来越火了,我们现在看到的许多图片也是由niji生成的。 下图由nijijourney生成最后扩展再额外介绍一个 DeepFloyd IF 由stability ai公司旗下DeepFloyd实验室开发训练,现已学术开源。 其技术特点是把text encoder从时下流行的clip换成了T5-XXL,使其拥有了gpt3级别的语义理解能力,可以用近似于聊天的方式去描述出你想要绘制的图片,并且能让这个AI准确理解你的意图。 同时此次开源的IF-4.3B模型中的unet部分也在实验室评估中也是目前所有同类型模型中表现最好的。 其绘制能力目前来看可以说十分惊人,除了可以准确的绘制出英文句子以外,还可以实现许多奇思妙想。 可以去huggingface上在线体验一下这个模型的生成性能,官方也提供一些提示词示例。 并且这个模型依然可以在个人电脑中运行,只是需要最少14gb的显存。 目前已经可以在github上获取到他们的代码。
继fanbox之后,pixiv也禁止ai图片约稿了 fanbox是彻底清查,除了今后禁止以外,以往的ai图也全部会被清除掉。 而pixiv是从本月29日起不再允许ai约稿。 使用ai这种目前各国相关法律还不完善的新事物,他们都选择了踩下刹车。 目前的ai生成图片都是处于灰色地带的。版权不明确,是否可商用也不明确,进行一定的限制也是应该的。
穷玩摄影这样搭有没有啥问题? A7R2(战损成色)¥5500,本来考虑A7R3,但是发现同样的COMS这个R2性价比更高 唯卓仕85f1.8二代 + 23f1.4 ¥3400,国产定焦大光圈便宜 再额外买两电池 + 闪迪v30 256g + 一个包包 ¥700 刚好1w以内,到618入手应该还能省点
【小白入门】A7R3+腾龙2875G2 某宝看了半天,都是全新港版加在一起1.6w入手有没有什么问题? 618快到了,到时候入手大概能便宜多少啊?
宿命之环写到现在还是给我一种拧巴感 有点像看龙族4的感觉,作者自己明明不想写,偏要硬写的拧巴。 没有诡秘之主的那种想法和思路不断铺开的流畅感,诡秘之主就算写到后期明显出现把控不住的时候,也没有出现这种拧巴感。 感觉这这样写下去效果不会很好,不知道乌贼现在是怎么一个创作状态,但我是看的很难受。 隔壁大眼的书倒是一直没这种感觉,就看的很舒服。
【奇人共赏】无源阵对有源阵,优势在我
【模型分析】关于Counterfeit-V3.0是如何被构建出来的 致力于重建nai吧的技术讨论氛围 前几天,大名鼎鼎的Counterfeit系列模型更新到了3.0,我体验过后感觉十分良好。 该模型在构成,色彩,泛用性,易用性方面都做到了相当好的地步。 唯一的缺憾是人体结构损害严重,据作者的描述是因为过于重视构图,忽视sd1.5无法绘制复杂的人体动态导致的。 接下来让我们进入到分析环节。 其制作者gsdf在早前上传的Replicant和Counterfeit-V2.0的模型卡中提到了他的模型是从采用了DreamBooth + Merge Block Weights + Merge LoRA等三种方法来制作的。 其实翻译过就是微调大模型,训练lora,根据需求进行分层合并。 这样我们就对这个模型的构建起源有一个基本概念了。 而Counterfeit的最新版本,3.0的模型卡中提到了以下几个关键技术知识点: 1、采用了BLIP2参与到打标。这一点可以有效提高模型的易用性,实际上前几天开源的IF-4.3大模型的text encoder也用来到类似的技术,它们都有用到T5-XXL。 2、优先考虑构图。即专门有意识的去微调或者训练过构图相关的模型,并融合进去。 3、合并了负值。可以理解为将一个模型在合并到基本模型中时,权重设置为负值来达成【删除一部分权重】的效果。 通过以上这些信息,我们大概能整理出模型在构建的全过程,其中每一个环节涉及到的技术详情也比较清晰的能被推测出来: 0、收集准备好一批高质量训练素材,使用BLIP2和deepbooru/wd1.4进行组合打标。 1、微调训练用于基底的,能画出我们想要的那些概念的底模,一般是照片类模型。 2、数个用于风格的,可以通过合并OUT层完成切换风格的模型,例如可以带来光影效果的,可以带来角色绘制风格的。 3、被专门用于添加额外概念的模型,例如被专门用于训练构图的模型。 4、一部分被用于负面概念的特殊模型,被用于添加负值合并。 5、通过分层合并插件,不断调试到一个令人满意的状态。 这些就是我对于这个系列模型的构建分析,如有错误欢迎指出。 通过这种推理分析,能帮助我们指明构建更加优良模型的方法,更加深入的学习sd模型的构建细节。 值得注意的是,许多模型构建者都提到了BASE层不应当进行任何融合操作,否则就容易出现较为严重的崩坏。 这其实是因为基本语义模块在融合过程中遭到严重损坏,无法准确的将训练时的概念与实际上的向量一一对应造成的。 类似于我们的合并通常会破坏VAE层,轻则导致模型绘图的色彩风格产生损坏,重则导致色彩信息大幅丢失。 在我们学习这些模型的构建过程里,尤其需要注意这些问题并做好规避。
dreambooth果然只是一个微调的工具 我在贴吧消失这么久回来一看这吧竟然已经被和ai毫无关系的一帮人占领了,属实是没想到 其实这段时间一直再研究dreambooth,我发现对这玩意儿来说太重的任务是基本没办法进行的。 或者说太重的任务通常效果较差,训练图集应该是在300张左右是比较恰当的,最终收敛结果都比较稳定。 然后所谓微调,本质上就是使模型专注于学习一小部分概念,而概念范围越小训练难度越低成品效果也越好。 batch size和Gradient Accumulation Steps最好的设置就是1,我哪怕设置成2最终效果都和1有明显差距。 学利率和学习率优化器建议就设置为1e-6和余弦系列,设置的稍微高一点细节就完全学不到,或者说学的不像。 但是归根结底最重要的还是高品质的训练图集,无论你的参数调的再完美,不如多花点时间优化训练集。 如果你打算进行任何形式的模型训练,你90%的前期时间应该花在训练集的优化上。 因为最终训练成品效果90%以上都和训练图集质量正相关。 最后是打标建议,我推荐使用blip2和wd1.4双管齐下。 blip2可以为我们的画面提供一段准确的自然语言描述,方便我们在生成画面时使用一段自然语言提示词快速定义画面的主题结构。 也就是用【什么人在什么地方干什么事】这样一句固定的话就迅速将画面选定在一定的范围内。 然后再用wd1.4打标来为画面中各个概念进行标注,反映在实际图片生成时用来补充修饰的单个提示词。 最后放一些阶段性成果,我在生成这些图片的模型中主要是想训练的概念是【甜美少女】【服装模特】【小裙子】【洛丽塔风格】。 最终效果使我较为满意,我想要的概念都被准确的还原出来了。
下一代基于扩散原理的绘图模型已经来了 stabilityai旗下的deepfloyd实验室前两天开源了DeepFloyd IF这个新的绘图模型。 这个模型把text encoder从现在流行的clip换成了T5-XXL,这个模型在语义理解方面达到了gpt3的水平,完全超越现在流行的mid,niji,sd1.5等主流绘图模型。 这意味着你完全可以通过一种近似于“聊天”的方式来让IF这个模型来理解你到底想要画什么。 同时此次开源的IF-4.3B模型中的unet部分也是目前市面上最好的,没有之一的,在实际绘制的泛化性能上远超以往所有的同类AI。 简单来说就是能画出来的风格更加多样化,更加自由。 但是也有缺点,这就和我之前预测过的一样,未来开源的新模型在相当一段时间内还是需要增大参数量来实现更好的效果。 而这个模型目前对显存的最低需求是14G,反映在民用消费级显卡市场就是你至少需要一张4080才能跑,我刚买的4090立刻就感到了性能窘迫
鸣潮这次测试确实不太行 去年闹出不少文本没替换干净的笑话,当时很多人说库洛想做个小米。 当时我也就是笑一笑,感觉要下定论还为时尚早,毕竟是一个一测状态的东西罢了。 结果今年成真了,这次不是文本这种无关紧要的东西,而是更加深层的思路问题。 库洛游戏有野心吗? 那肯定有,组建超过500人的开发团队去挑战目前公认制作难度最高的开放世界游戏这本身就是风险极大的。 但目前游戏的底层构建思路完完全全就是市场上已经成功的同类竞品的复制品,仿佛一点额外的风险都不想承担。 按照已经成功的产品的思路走下去顶多无功无过,但也只能是在今天的市场上喝口汤罢了。 最坏的情况是汤都喝不到,毕竟所谓的特色硬核动作系统可能会拉高玩家的入门门槛。 我在这里做个预言,当鸣潮正式公测时如果无法突破这次二测的基本游戏构成思路,大概率会连幻塔都打不赢。 此次二测给我的感受是比较遗憾的,今后也不会再特别关注这个游戏了。 我连不可说游戏都玩不下去,为什么要来玩一个略有差别的相似品呢?
【模型分享】Project VRWaifu-mix_v2.0 提示:下载地址在最下面。 --------------------介绍-------------------- 1.0版本的稳定性太差,完全是垃圾……角色绘制风格也太过单一了。 2.0版本针对这两点做了一些改进,具体看例图吧。 为什么没有上传civitai?我可以正常访问这个网站,但是一点开上传就404 稍晚一些我再看看怎么回事。 已经把例图都放在下面的度盘文件夹里面了,想看参数和词条直接读取图片信息就好。 --------------------例图----------------------------------------下载-------------------- 链接:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fpan.baidu.com%2Fs%2F1iQtaly4RVYuTkDoUQ46sgg+&urlrefer=e4d235e9a31ccda330be5f6b38913dee 提取码:o3mq --来自百度网盘超级会员V5的分享
雷电接口到底有什么用?雷电3显卡坞外接RTX4090实测 这贴几天前在卡吧发过了,不过最近笔吧对雷电接口讨论的很激烈,趁机来水一波经验 去年五月我也发过一个雷电3外接3080的帖子,本来今年是想换4080的,但是这个价格太过于恶心人了 最后还是选了4090,终归这玩意儿价格比较“合理”一些。
没想到炼丹成本主要是电费 以一个170万步的训练举例,显卡平均功耗400瓦,全程需耗时80小时用掉32度电。 按照我住的小区的电费0.6元/1度来算,也就是19.2元的电费。 再继续换算,每个月以720小时计算,总耗能大概288度电,产生电费约172.8元。 一年下来也是两千多电费了
【成果汇报】新手炼丹佬的初次炼丹成果 训练设备是4090,训练参数集大概310张城市,街道相关概念图片。 基底模型是cf2.5,训练图片分辨率是1024,总共训练100轮,耗时约4个小时。 果然用高分辨率图是有效果的,下面这十张是一次直出,没有挑选。 总体效果令人满意,就是这样的微调训练有点破坏了cf2.5原来的构图,相关问题需要进一步研究。
4090到了,就是感觉这个推理速度有点疑问。 跑100张512*512的图,每张推理20步,总计2000步。 总耗时2分25秒,也就是85秒,换算下来每秒23步。 但是我看秋叶发的天梯图里4090跑512分辨率的时候可以跑到每秒40步,这个是需要在什么配置下才能达到的吗? 我已经更新了cudnn
【开箱+跑分】雷电3显卡坞搭载4090是怎样一种体验? 一楼防吞,下面开始更新。
lora合并到大模型与直接使用lora居然有这么大差别 这两天发现VRWaifu这个模型还是太难用了,出图稳定性基本上是垃圾级…… 于是着手开始进行2.0版本,主要改进人物画风单一和稳定性。 我是先调整底模,然后调整最终风格。 在最终风格这一步我是通过lora来控制的,毕竟轻量化好用。 如下图,这是我觉得比较合适的一个配比。但是按照这个配比把lora融进底模以后,同样的词条同样的参数同样的种子,出来的结果产生了巨大的变化 如下图,角色的脸型,皮肤质感,整体色彩倾向都出现了变化。只能说继续试错了,之前没注意到这种情况
一个创建更高质量模型的思路,但还缺乏验证 我首先假设,一个ckpt在训练时被训练的概念越单一,模型的最终成品效果越好。 那么我是否可以准备数个被单独训练某些概念的ckpt进行分层合并,最终获得比一次训练大量概念(其中许多概念实际上几乎不会被调用)效果更好的ckpt呢? 并且这种单一概念多模型在合并过程中理论上对各自训练好的概念不会造成严重污染,实际上我经常会发现两个本来相当好的模型在融合后出现剧烈崩坏的情况,而各自独立概念的模型应当能避免这种情况的出现。 最后我还可以单独训练一个二次元角色的lora,在最终去合并到这个模型中完成一键二次元/三次元的切换? 目前我已经在开始验证了 卡在我面前最大的困难是一张3080 12g显卡的训练速度太慢,已经下单一张丐版映众4090了,但还要过几天才能到。
感觉最近4090都破发了,现在入手合适吗? 我去年买的3080 12g 火神oc现在还能出多少? 想换个映众的x3 oc,这卡有没有什么雷点? 我对显卡的用途主要还是炼丹,跑图,做3D渲染。 打游戏用PS5和NS,基本不考虑游戏场景。
感觉混合模型到头了,开始尝试玩玩炼丹 用wd1.4打标,然后dream booth扩展来训练。 3080 12g勉勉强强可以跑起来,本来还想着开个双卡一起跑,可惜3070ti只有8gb显存,炉子架不起来。 我大概规划了以下几种概念是要进行训练的: 手部,室内家居,城市建筑,自然风景,美食,人物立绘 目前这些训练集我都搜集了200到400张图,每一轮100步,一个概念我要跑6到8个小时,全部训练完预计五十个小时左右。 比较卡脖子的还是显卡性能,是有两张4090就爽了,可惜没有
【模型分享】虚拟现实waifu计划 —— Project VRWaifu 受到AOM系列的启发,我发现分层合并有着许多可能性。 其中我最感兴趣的就是角色和背景分层操作,选定了方向就准备开干了。 初步定下来的目标是将非常纯正的二次元角色焊接到逼真的背景中来,没错,就叫焊接 之后我将这个计划取名为虚拟现实waifu计划,也叫Project VRWaifu-mix。 研究了半个多月,查阅了许多资料,进行了上百次融合尝试,总算有了一定的成果。 VRWaifu-mix_v1.0正式公布~了吗? 很遗憾,想要下载此模型需要一些特殊手段。 但简单来说就是在civitai网站上搜索VRWaifu-mix便可找到并下载,其他的我也帮不了你什么了。 来点预览图吧。 目前阶段的效果我很满意,但也有许多不足之处,待留之后版本修改了。
微调模型过程中的两张测试图 加入了一些anmi的风格进去
【模型推荐】宝藏级sd1.5模型 在civitai搜索Kawai Diffusion SD1.5,或者在huggingface上搜索anime-kawai-diffusion就可以找到。 这是一个训练模型,不过比较特殊的是这个模型大量采用了其他绘图AI生成的图片来训练。 基于作者出色的调教,该模型的出图品质高的惊人。 我并不是说这个模型的在绘制能力上有多出色,而是其对于画面中主体元素的构成能力非常之强,并且读tag能力也很强。 用人类画师的形容就是基本功扎实,无论是直接用于生成图片,还是作为基本模型进行进一步融合/微调都是非常好用的。 就是现在人气很低,我就奇怪这么好的模型怎么没几个人讨论 狠狠的下载,狠狠的点赞好吗? 上例图,也不需要几个负面标签,依然能享受很好的出图品质。 例如这样:nsfw,(worst quality,low quality,normal quality:1.8),watermark, 此模型的基本效果简单融合后的效果
【4K大图】分块渲染让AI生成大图更加容易 MultiDiffusion这个插件真好用,把图片切成8片分别进行放大(切出冗余量),再叠回去用vae还原出来。 我这12gb显存的3080跑一张1920放大两倍的图也就一分钟左右,AI生成的图片可用性越来越强了。
【土法加速】两张显卡一起跑 开两个进程,分别用两张卡来跑
1
下一页