145721767XS
145721767XS
签名是一种态度,我想我可以更酷...
关注数: 21
粉丝数: 262
发帖数: 19,425
关注贴吧数: 11
为啥你们能忍受原神手游版渣画质? 云原神画质好太多,手机又不热,还用不着占用几十GB空间,怎么看原神手游版都没有玩的价值。
nova12系列只推荐ultra版 到华为体验店摸了半小时nova12系列手机,对比以后感觉ultra版除了没有长焦外都相当不错,系统流畅,臃肿应用京东app流畅度貌似比我手头上的荣耀魔法5pro还略微好点,屏幕观感也很好。pro版不推荐,只便宜300,缩水太多了。
麒麟8000与天玑8100 gpu都是Mali-G610,频率差不多一样,gpu模块数量未知,假设也是MP6,那么理论性能就可以参考天玑8100。而cpu部分约等于8100降频
搞不懂为何原神成为跑分工具 这个游戏手游版在所有中高端手机游玩都会热到烫手,然后画质还差,又很占用存储空间。 相比之下,云原神就好太多,画质好发热低还省电,每天领取免费游戏时间,可以储存10小时游戏时间。 你要是没有条件玩电脑版,原神又玩的多,那就开会员,一个月60元,随用随开,不想玩了就不是续费。游戏体验远比手游原神好。云原神的画质是pc版中高画质设定的水平,而手游原神还不如pc版低画质。 因此,我觉得用原神还衡量一款手机的好坏那是很蠢的。
数毛社的视频充分证明iPhone高分低能 在生化危机游戏里,搭载A17pro芯片的iPhone超大倍游戏表现被理论跑分低很多的Steam Deck暴打。我倒是想看看之前嘲讽amd gpu的果小丑怎么圆谎。
手机能玩生化危机8 30帧很神奇吗? 被机圈某些人鄙视的steam deck,在800p中高特效跑四五十帧!而且,steam deck自带手柄,操作起来很方便。难道你想着手搓玻璃去打怪?
麒麟9000S一出现,某些人就只看理论测试了 如果理论测试能代表一切,那高通卖给华为的阉割版778G 4G就不至于又热又卡耗电快,相关机型的使用体验明显不如荣耀的778G机型。 同理,麒麟9000S在自家系统的软硬协同下,使用体验秒杀自家8gen1+机型不在话下。 另外,华为车机所采用的麒麟990A处理器虽然理论性能不如骁龙8155,然而使用体验秒杀所有8155车机。 当然,某些带节奏的水军可不管这些,它们在麒麟芯片跑分高的时候就说实际体验不行,而实际使用体验很好的时候就强调唯跑分高才是一切
如何看待苹果成本300定价差3000? mate60pro的12+512版售价6999,一些“理中客”出来指责华为“割韭菜”。然而,这些“理中客”从来不去指责苹果公司的产品成本300定价差3000。以macbook air为例,8+256版售价7699,16+512版售价10699,差价3000,而存储芯片的价格差价连300豆不到!维修厮表示1000GB的苹果存储芯片拿货价只要600。而8G内存差价也就几十块钱。 由此可见,这些“理中客”只会拿钱的干活,屁股决定脑袋!
所谓的dlss3插帧还不如手机上的独显芯片 手机这个芯片以非常低的功耗就能搞出来的相近效果。 随着智能手机的飞速发展,其承载的功能越来越多,对于SOC性能的需求也越来越高,而手机芯片的峰值性能在不断攀升的同时,也带来了另外一个棘手的问题——功耗的激增。  在硅基半导体产业发展的前几年,功耗问题尚且可以通过工艺和架构的升级来进行控制,但是随着芯片工艺发展到7nm以下,工艺所带来的红利逐渐萎缩。  而芯片的性能又不可能一直停滞不前,所以IC设计厂商不得不通过提升频率的方式进行性能的提升,目前主流安卓芯片的大核频率都超过了3.0Ghz,而这必将导致芯片功耗的提升。目前一款旗舰U的总功耗大体都在10W-15W左右,已经取代屏幕成为了智能手机的耗能大户。(作为对比,目前用在笔记本平台的I5 低能耗CPU的功耗也就20+W左右) 而在游戏这个场景中更是重灾区,因为众所周知,因为游戏同时会对CPU和GPU提出非常高的计算要求,是典型的“双烤”场景,而且GPU本身就是耗能大户。 就拿备受诟病的骁龙888来说,其为什么在游戏环节表现拉跨,就是因为他的GPU功耗太高所致,根据测试,骁龙888的GPU功耗可以达到9W左右。游戏时的满载功耗可以达到13-14W,不崩才怪。 那么如何降低玩游戏时的GPU功耗就成为了摆在手机厂商面前的一个问题。于是乎,聪明的手机厂商就找到了一个很另类,但同时也很行之有效的手段——“用另外一块芯片来协助GPU渲染画面,这样不就能够降低GPU的负载了么”。 于是,游戏插帧芯片应运而生。 目前业界主流的游戏插帧芯片所利用的原理就是通过光流法+AI算法,来共同预测画面下一帧画面的状态,然后替代GPU渲染这一帧的画面。和曾经咱们听说过的MEMC补偿技术其实是一个道理,因为他们所用的都是光流法这技术(采用类似补帧原理的技术还有很多,譬如AMD的SVP技术等等,是非常成熟的技术)  这种技术的做法就是通过记录前一帧画面的光源信息,通过算法计算出下一帧画面的位置,然后进行渲染,就像一辆匀速行驶在直线上的小轿车,通过速度和时间你就能够计算出它下一秒的位置,道理是一样的。 相比于通过GPU运算渲染出画面,通过插帧芯片计算出画面所需要的功耗非常低。那么手机厂商就可以通过和游戏厂商的合作,把原本需要GPU实时运算出的60帧的画面分出来一部分,用游戏插帧芯片来进行渲染,这样GPU的负担就会减轻。 这就是游戏插帧芯片的核心价值以及原理。 IQOO和真我realme之间的较量,谁是最优解?  行业内第一款搭载独立显示芯片并将其应用在游戏领域的手机厂商是黑鲨,但是目前基本已经放弃了。而目前市场上在该赛道继续深耕细作的手机品牌主要有两家——IQOO以及真我realme(这两家都持续的发布了搭载独显芯片的手机,真我也发布了三款——真我GTNeo2,真我GTNeo3,真我GT2大师探索版) 根据上文,我们知道了AI插帧的运作原理和效果。而这个方案所面临的最大的问题主要有两个,第一是模拟画面的准确性,第二就是延迟。 而对于游戏插帧来说,延迟是最重要的指标之一,如果你用过之前的搭载独显芯片的手机就会知道,在开启插帧之后,画面虽然流畅了很多,但是在操作上会有明显的延迟。 所以,对于深耕这个赛道的手机厂商来说,谁能够把延迟降低,谁就能给消费者带来更优越的游戏体验。 真我这边,选择和在图像视觉处理领域顶级玩家——Pixelworks合作,通过联合研发和转向的适配,搭载了其旗下最新的Pixelworks X7系列芯片,该芯片通过将MotionEngine技术进行进一步升级,大幅降低了延迟,几乎达到了物理可能的最低水平。  而VIVO这边则走了一条不同的路,它没有单纯的追求插帧芯片的极致性能表现,而是通过自研的ISP图像处理芯片——VIVO V1芯片,在拥有图像处理能力的同时兼顾游戏插帧的这个功能,实现了功能丰富度上的最大化,和真我GT2大师探索版的方向有所不同。 换句话说,真我GT2大师探索版更专注于游戏体验,而VIVO则更侧重于芯片的综合体验==利用。关于这一点,在测试数据上也能有所体现。 如下图所示,这是目前测定的游戏插帧时的延迟数值,其中真我GT2大师探索版的延迟最低,只有9ms左右,是目前所有配备独显芯片的手机中最低的,几乎可以用无感来形容。  其实相较于IQOO 10,真我GT2大师探索版更像是一款游戏手机,它拥有目前最好的独立显示芯片,侧边的肩键,以及丝毫不差太多的散热配置和更为低廉的售价,如果你对游戏有较高的需求,买这款手机就够了。  当然了,如果你对于影像的要求更高,那么VIVO旗下的产品更适合你,尤其是搭载VIVO V1X芯片的产品,综合体验会更为出色一些。 END 希望可以帮到你
7900xtx重演7970 新架构的7900xtx相比上一代的6950xt,首发测评的表现并不能让人满意,平均提升幅度远远没有达到大家的期望。但是,我们回顾一下10年前的7970首发测评的表现,就可以发现7970相比6970的提升幅度也不咋滴。后来的故事大家也知道了,规格只有1024sp的HD7850 2G非公版在新架构驱动程序优化完善后就能击败1536sp的HD6970,7970则是达到了6970的2倍以上游戏表现。
COD19暴跌20帧! 造成差异的原因是采用两个版本的驱动程序。看来RDNA3的优化目前还是顾此失彼的状态。据说AIB显卡厂家的测试的版本的驱动2077只跑50帧,而amd提供给首发测评用比较新的版本就超过70帧。但是,旧版驱动在其他一些游戏帧率反而好过新版驱动。 最近TPU测试的华硕7900XTX风冷超频后已经实现2077帧率逼近4090。可见7900XTX的实力还是有的,就是需要继续打磨驱动程序,来让多数游戏达到接近4090的帧率
太牛了,有的游戏7900XT干不过6950XT 这7900XT很有当年HD7950的样子,刚出的时候打gtx580都有些游戏打不过。但是后来的剧情就不用说了,懂的都懂。RDNA3采用的双发射需要驱动程序工程师加班加点去完善,看好后面的鸡血驱动(实际上只是把这规格应有的性能发挥出来)
前段时间声称7900XTX打不过4080的人突然哑巴了 尤其是这是荒野大镖客2游戏,不少N水军表示他们看到4080测出来的“最高画质”帧率比AMD之前给出的7900XTX数据高不少。然而媒体测评解禁后,他们都哑巴了,呵呵! 很多时候,有些人不是蠢,他们只是坏,立场决定脑袋
AMD摊牌了 赶在RTX 4080上市前一天,AMD摊牌了,直接晒出了RX 7900 XT/XTX的对比数据。 虽然因为缺乏RTX 4080的实测性能数据,不那么直观,但火药味已然十足。 AMD指出,从流处理器规模、显存容量/位宽、浮点算力等纸面参数上,RX 7900 XT/XTX都在RTX 4080之上,而且AMD新卡还首发支持DP2.1接口,更重要的是,最贵的7900 XTX不过999美元(国行7999元),远比RTX 4080的1199美元(国行12999元)便宜。 虽然4080测评还没解禁,但是4090测评早已解禁。在2077超级画质不开光追不开超采样技术的前提下,amd官方ppt给出的的数据是7900xtx跑72帧,而装机猿同画质设定4090是80帧。另外一个游戏是看门狗军团最高画质,7900xtx跑100帧,4090FE是116帧。 值得注意的是,AMD官方和装机猿测的是最高画质,而外媒Hardware unboxed一般选用比最高预设低一级的画质档位,可见在降低一级档位后,A卡帧率提升百分比要明显高于N卡。以看门狗军团为例,6950xt在very high档位是88帧,4090是141帧,而在最高预设6950xt则是68帧,4090是116帧。计算可知,同样下调一级档位后,6950xt帧率提升29.4%,4090只提升21.5%。出现这个情况一般考虑是最高档会开启Nvidia Gameworks特效,从而导致A卡帧率损失幅度明显高于N卡。
AMD摊牌了 赶在RTX 4080上市前一天,AMD摊牌了,直接晒出了RX 7900 XT/XTX的对比数据。 虽然因为缺乏RTX 4080的实测性能数据,不那么直观,但火药味已然十足。 AMD指出,从流处理器规模、显存容量/位宽、浮点算力等纸面参数上,RX 7900 XT/XTX都在RTX 4080之上,而且AMD新卡还首发支持DP2.1接口,更重要的是,最贵的7900 XTX不过999美元(国行7999元),远比RTX 4080的1199美元(国行12999元)便宜。 虽然4080测评还没解禁,但是4090测评早已解禁。在2077超级画质不开光追不开超采样技术的前提下,amd官方ppt给出的的数据是7900xtx跑72帧,而装机猿同画质设定4090是80帧。另外一个游戏是看门狗军团最高画质,7900xtx跑100帧,4090FE是116帧。 值得注意的是,AMD官方和装机猿测的是最高画质,而外媒Hardware unboxed一般选用比最高预设低一级的画质档位,可见在降低一级档位后,A卡帧率提升百分比要明显高于N卡。以看门狗军团为例,6950xt在very high档位是88帧,4090是141帧,而在最高预设6950xt则是68帧,4090是116帧。计算可知,同样下调一级档位后,6950xt帧率提升29.4%,4090只提升21.5%。出现这个情况一般考虑是最高档会开启Nvidia Gameworks特效,从而导致A卡帧率损失幅度明显高于N卡。
AMD摊牌了,7900XTX狂怼4080 赶在RTX 4080上市前一天,AMD摊牌了,直接晒出了RX 7900 XT/XTX的对比数据。 虽然因为缺乏RTX 4080的实测性能数据,不那么直观,但火药味已然十足。 AMD指出,从流处理器规模、显存容量/位宽、浮点算力等纸面参数上,RX 7900 XT/XTX都在RTX 4080之上,而且AMD新卡还首发支持DP2.1接口,更重要的是,最贵的7900 XTX不过999美元(国行7999元),远比RTX 4080的1199美元(国行12999元)便宜。 虽然4080测评还没解禁,但是4090测评早已解禁。在2077超级画质不开光追不开超采样技术的前提下,amd官方ppt给出的的数据是7900xtx跑72帧,而装机猿同画质设定4090是80帧。另外一个游戏是看门狗军团最高画质,7900xtx跑100帧,4090FE是116帧。 值得注意的是,AMD官方和装机猿测的是最高画质,而外媒Hardware unboxed一般选用比最高预设低一级的画质档位,可见在降低一级档位后,A卡帧率提升百分比要明显高于N卡。以看门狗军团为例,6950xt在very high档位是88帧,4090是141帧,而在最高预设6950xt则是68帧,4090是116帧。计算可知,同样下调一级档位后,6950xt帧率提升29.4%,4090只提升21.5%。出现这个情况一般考虑是最高档会开启Nvidia Gameworks特效,从而导致A卡帧率损失幅度明显高于N卡。
被低估的7900XTX 数据已经给出来了,你会算数吧? 计算后可知看门狗游戏帧率比4090低个位数百分比,而2077帧率持平。这两个绿标游戏都有如此表现,其他游戏更不用担心! 7900XTX其实主要问题是积热!由于采用Chiplet设计,因此那个300平方毫米的GCD芯片将会需要220W的功耗,6个MCD则是总计50W功耗,12颗显存总计50W功耗,剩下35W由风扇和供电电路消耗,而6950xt的GPU芯片用520平方毫米去分散260W功耗。 从热密度来看,7900XTX的GCD芯片热密度接近6950XT Gpu的1.5倍
被舆论低估的RX7900XTX 官方ppt上的两个游戏,一个是看门狗,另一个是2077,这两个游戏的帧率拿6950XT的帧率分别乘以ppt给出的倍率,结果是看门狗帧率跟4090FE分别为132帧比141帧,而7900xtx的2077帧率跟4090都是83帧。很显然,7900XTX具有对标4090的实力,有点经验的人都知道看门狗和2077本来就是NV赞助游戏。 因此,我认为7900xtx的TSE跑分悲观估计在18000左右,乐观估计则是19000+
不得不说AMD保密很到位 直到发布前几个小时,你都没办法确定其具体规格和性能。
距离RX7000发布会倒计时不到3天 已知图上的显卡型号是RX7900XT,TBP330W,所以只配置双8pin。 至于7900XTX首发可能不会出现,但是已知3个8pin供电,TBP420W。已知7900XTX相比6900XT能效比提升50%+,因此计算出7900XTX的光栅性能是6900XT的2.1倍以上,也就是TSE得分在21000+。至于7900XT的规格,已知是10752sp,320位显存,80MB三级缓存,可以推算出其性能大概是7900XTX的88~90%,TSE分数18000以上。 总体来看,7900XT对标的是4080ti,不排除越级打4090
瘟疫传说新作FSR2.1补丁提升50%帧率 效果如图所示。实测RX6600使用补丁后,自动模式下,帧率提升50%乃至更多。相比TAA,FSR2.1mod的图像效果明显更好。动态画面效果也不错,不足的地方仅仅是主角头发边缘在转视角时候有类似TAA那样的拖影,但是头发丝明显处理的更好
瘟疫传说新作FSR2.1补丁提升帧率50% 效果如图所示。
作弊小能手极客湾 看图就好了,CHH测试锁253W功耗墙的13900K跑R23得分不到36000,主板自动模式设置则是310W功耗。而极客湾的13900K才269W,毫无疑问是手动降压后的功耗。7950X难道不能降压?微星工程师把cpu温度墙设置为65度后,cpu自动电压1.13V,cpu功耗才166W,R23得分依然秒杀253W功耗墙的13900K。
win11 22H2负优化锐龙7950x,然而 然而国内的媒体测评基本选择性忽视,毕竟i的30亿美元营销真香,不会跟钱过不去对吧。但是你看到哪个测评还在用22H2,那你完全可以认为这个测评没有不可信,至少锐龙7950x的测试结果不可信
13900K默认功耗性能果然被7950X吊打 7950X分数在38000左右,即便用两百价位风冷散热器,其他设置都默认也能37000+分,功耗不到200W。而13900k在默认的253W功耗下不到36000分。R23跑分尚且如此,其他依赖多线程性能的生产力软件落后更明显了。这也是为何13900k定价低于7950X。 至于游戏表现,购买7950X的人主要是需要高生产力性能的,游戏表现足够高帧就行了,200帧与210帧不开帧率显示根本感觉不出来。注重游戏表现的还是会入手5800X3D,目前能在渣优化网游中表现最佳
DLSS3果然是脱裤子放屁 瘟疫传说安魂曲游戏对比测试显示这插帧对性能占用巨大,在质量模式下,DLSS3是166帧,原始帧是83帧,另外83帧是插帧。而DLSS2是129帧,也就是说开启这个插帧后,损失了46帧,损失了超过1/3。最终结果是,可操作帧只有83帧,另外83帧是经常出现错误渲染的不可操作帧。可操作帧的大幅度下降,带来的后果就是操作明显变迟钝,而且错误的渲染帧也会干扰画面质量。 中低端卡就更不适合开启DLSS3,因为插帧非常占用算力。比如说将来4060在某游戏中开DLSS2时候有60帧,开了DLSS3后虽然有80帧,但是你可操作帧就只有40帧,游戏体验反而明显下降。
rtx4090光栅性能很可能不如次旗舰rx7900xt 前几天有电源厂商给出的信息提示有420W rx7950xt,以及330W rx7900xt。从AMD之前ppt的50%以上能效比提升的指标计算,可知rx7950xt相比rx6900xt将有110%以上的性能提升。反应到杀手3游戏里,4K帧率很可能超过200FPS,这个帧率即便是4090超频后都达不到。这也是为何这次英伟达大力鼓吹添加插帧功能的DLSS3,试图用营销来弥补产品硬指标的不足。
13900K多核干不过7950X 同样在默认设置下,13900K的p核5.5GHz,E核4.3GHz,同时受限于PL2功率253W,跑R20分数比7950X低几百。
2CU核显游戏表现依然强过12900K核显 具体数据看图,可见理论跑分12900K核显明显高一些,但是游戏测试则是反过来。另外,如果这个核显能加电压超频,那性能还能提升很大幅度,按照6500xt的情况, 可以把频率超频到3GHz以上,性能额外提升40%!
被限制75度的7950X居然这么强 数据开源看图片的水印。使用的散热器有点高级,但是你改用百元风冷更适合这样设置。
7950X限制75度依然性能很强 图片来自于微信超频实验室,图片有水印。
4090在赛博2077同画质设定相比3090ti提升62% 通过图上的百分比换算就知道4K DLSS性能模式下,4090只比3090ti帧率高62%。
4090跑分推算 已知3090ti的TSE跑分在11000左右,根据对比图的高度,估算450W版4090的TSE跑分在18000~19000,然后4080 16G跑分在13000~14000,而4080 12G跑分在10000~11000。 但是,这些仅为公版参数的跑分,而那些大块头的非公版4090,预设的功耗墙会高不少,比如600W的4090,其TSE跑分能上20000
40系列的卖家秀与买家秀 看图就好了,卖家秀就是图上被选择放在发布会ppt的游戏,开了作弊技术后。而卖家秀就是图上没有在发布会ppt放出的3个游戏,分别是生化危机村庄、刺客信条英灵殿、全境封锁2,这3个游戏代表了真实的光栅性能表现提升幅度。可见,4090相比3090ti的提升幅度远低翻倍,介于50%~70%之间
Zen4的ipc提升13%,7600X游戏表现超12900K 详情看图
极为“先进”的鸿蒙系统 打开支付宝以及某宝某东某小电视还有某度极速版,还有x浏览器,微博极速版,当然微信是后台常驻然后手机熄屏。接着打开系统开发者选项的“正在运行的服务”,可见只剩支付宝和微信了,其他的都没了。不过,切后台应用,又能回到应用的二级界面,原来某小电视打开的文章依然保留到原来阅读的状态。 是不是有ios那味了?其实比ios更先进,毕竟ios会杀微信,导致消息延迟,而鸿蒙系统基本不会杀微信
麒麟995璃月夜间跑圈帧率与功耗
麒麟995璃月跑圈帧率与功耗
7950X PK 13900K 超能网把13900的ES版与降频至同频的12900K跑分进行比较,得出同为P核3.8GHz,E核2.8GHz的跑分。 已知这个频率的R23分数是26748,那么可以推算出当P核5.5GHz,E核4.2GHz时的R23跑分约为39000。 那么问题来了,7950X分数多少?这里采用了5GHz 5950X的分数作为基准,已知7950X可水冷全核5.5GHz,ipc提升近10%,那么可知7950X的R23分数约为42000分。当然,在170W功耗墙情况下是无法5.5GHz的,这时可以用AMD官方ppt的数据:相比5950x多核提升35%。已知5950X默认设定R23分数是29000左右,可知7950X默认分数就是39000左右,跟P核5.5GHz,E核4.2GHz的13900K分数相当。但是,P核5.5GHz,E核4.2GHz的13900K跑R23时候CPU功耗突破300w,拿来跟170W的7950X进行直接比分,分数还差不多,说明能效比这方面AMD依然完胜。
995璃月站街帧率与功耗手机是荣耀V30pro,系统是2.0.0.168
AMD公布5nm RDNA3 GPU:每瓦性能提升超50% 在本次的财务分析师大会上,AMD除了公布Zen 5路线图、Zen 4真实性能外,还进一步扩展了GPU产品版图。 路线图显示,下一代显卡采用RDNA3 GPU,核心Navi 3x,5nm工艺。下下代是RDNA4,核心Navi 4x,制程方面留了个悬念,4nm、3nm都有可能。 性能方面,AMD也做了预览,相较于RDNA2(RX 6000系列显卡)每瓦性能提升超50%。 架构方面,AMD透露会采用先进的Chiplet小芯片封装技术,重绘计算单元,优化图形管线,支持下一代无限缓存等。 另外,AMD在会上还谈到对DP 2.0接口和AV1编解码的支持。 据悉,RDNA3对应的RX 7000系列显卡将于今年晚些时候和我们见面。
A卡战神4 FSR2.0效果对比原生分辨率TAA 帧率高的那个就是开启FSR2.0质量模式,帧率低的就是1440p TAA(游戏默认TAA,没其他抗锯齿模式)然后图片局部截取对比,可见1440p开FSR2.0画面效果秒飞1440p TAA,估计也秒飞DLSS2.x。 需要注意的是N卡开FSR2.0效果是远不如A卡的,因为其驱动程序并没有适配FSR2.0战神4这个游戏降低渲染分辨率对提升帧率效果不明显,这个游戏开1440P FSR2.0质量模式只提升20%帧率, 不过画质还明显改善了。开启FSR2.0后的帧率在80%渲染到85%渲染之间。画质方面要远比后者强
A卡战神4 FSR2.0效果对比原生分辨率TAA 帧率高的那个就是开启FSR2.0质量模式,帧率低的就是1440p TAA(游戏默认TAA,没其他抗锯齿模式)然后图片局部截取对比,可见1440p开FSR2.0画面效果秒飞1440p TAA,估计也秒飞DLSS2.x。 需要注意的是N卡开FSR2.0效果是远不如A卡的,因为其驱动程序并没有适配FSR2.0
A卡战神4 FSR2.0效果对比原生分辨率TAA 帧率高的那个就是开启FSR2.0质量模式,帧率低的就是1440p TAA(游戏默认TAA,没其他抗锯齿模式)然后图片局部截取对比,可见1440p开FSR2.0画面效果秒飞1440p TAA,估计也秒飞DLSS2.x。 需要注意的是N卡开FSR2.0效果是远不如A卡的,因为其驱动程序并没有适配FSR2.0
只要游戏支持,老卡也能开FSR 实测R9 290显卡,运行《银河破裂者》,顺利开启FSR。默认1440p高画质设定出生降落场景,60帧出头。打开FSR质量模式(960p渲染)有80多帧。打开FSR性能模式(720p渲染)是接近110帧。 FSR性能模式加上驱动程序设置开启锐化30%(也可以用Reshade CAS),画面观感还能接受,明显比50%渲染+FFX锐化画质质量好的多
FFX依然能明显改善AMD FSR效果 驱动程序中设定该游戏锐化30%(具体多少合适取决于自己调整),这个锐化的目的是抵消TAA的模糊
TPU关于AMD FSR测试总结 结论 终于到了。在 NVIDIA 推出 DLSS 近两年后,我们推出了 FidelityFX 超级采样功能,它可以击败 NVIDIA 最强大的卖点之一。 AMD 花时间完善了该技术的核心组件,这是一个智能升级器,试图锐化和保留其输出的细节。 FSR 很容易集成到任何现代 3D 游戏的渲染管道中。实际上,它不必只是游戏。该技术仅查看单个图像,因此理论上它可以用于放大照片、视频或其他任何内容。据 AMD 称,FSR 代码将在“7 月中旬”在他们的 GPUOpen 网站上开源。着色器代码目前尚未公开,而且 AMD 不愿意与我分享——我问过。所以它在技术上仍然是一个黑匣子,就像 NVIDIA DLSS,但我相信 AMD 会很快发布它,因为开放性将推动采用率。 此外,鉴于 FSR 的开源性质,很容易进一步采用/优化它以用于 NVIDIA 的 GPU 架构。此时,FSR 在 NVIDIA 上的性能扩展比在 AMD 上要低,但它仍然表现出色。我只希望 AMD 将社区反馈整合到官方代码库中。最后但并非最不重要的一点是,通过免费提供源代码,开发人员可以更自由地调整并将其应用于他们的用例。不喜欢锐化?引擎集成也容易得多,因为 FSR 只是一段着色器代码,对硬件没有任何特殊依赖,不像 NVIDIA DLSS,它需要 GPU 中的 Tensor Core。 NVIDIA 之外没有人知道 DLSS 是否可以在没有 Tensor Core 的情况下运行良好,而且 NVIDIA 肯定不会将其移植到其他架构上。另一方面,AMD FSR 今天在 NVIDIA 图形硬件上运行得非常好。因此,即使您使用的是 3 岁的 Pascal,您也可以添加免费性能——这是 DLSS 无法做到的! 现在,最大的问题是——它有效吗?从性能的角度来看,它肯定是!即使是提供最高图像质量的“超高品质”预设,也能让您将帧速率提高 25-40%,这在具有 1440p 硬件的 4K 显示器上播放时会非常方便。虽然我们今天测试的游戏并不是最苛刻的,但数字不言而喻。 Radeon RX Vega 64 在 4K 时一团糟,现在非常具有可玩性,尤其是如果你愿意牺牲一些质量的话。这也为 Radeon RX 580 等显卡注入了新的活力,这些显卡现在可以在 1440p 下实现良好的帧率。对于仍然使用这种老一代硬件的人来说,这是一件大事,他们可能想在 2020-21 年进行升级,但被高昂的 GPU 价格推迟了。当您在平衡、性能和质量模式之间切换时,您的帧速率会增加一倍以上,这只会增加您的自由度。 从质量的角度来看,我不得不说我对 FSR“超质量”的结果感到非常惊讶。图形看起来几乎和原生一样好。在某些情况下,它们甚至比原生渲染看起来更好。不同之处在于 FSR 添加了一个锐化通道,有助于在某些游戏中处理纹理细节。与 Fidelity FX CAS 非常激进且经常过度锐化不同,FSR 的锐化非常微妙且几乎完美——而且我不喜欢后期处理效果。我无法发现任何振铃伪影或类似问题。 FSR 更注重性能的模式绝对不适合那些想要最好质量的人——渲染分辨率的损失变得非常明显,非常快,尤其是在色彩强烈和对比度高的区域。不过,我不确定我们是否应该完全将这些模式视为“无法使用”。例如,如果您拥有较旧的图形卡和 4K 显示器,“FSR 性能”的输出看起来会比简单地以 1080p 渲染并让显示器或 GPU 将输出升级到显示器的原生 4K 效果要好得多——我测试过。以 1920x1080 渲染的 FSR 性能甚至比放大到 4K 的 1440p 看起来更好。 虽然 NVIDIA DLSS 是时间的,但 FSR 只查看单个帧。这具有避免由于对象在与场景其余部分不同的方向移动而导致的“重影”渲染错误的巨大优势。 NVIDIA 通过 DLSS 2.0 解决了这个问题,但该方法要求游戏开发人员将对象的运动矢量从他们的游戏引擎提供给 DLSS 算法。另一方面,这种时间方法为 DLSS 提供了更多信息——多幅图像加上运动矢量。从技术角度来看,这使得 DLSS 更胜一筹,尤其是在更高的比例因子下,因为空间放大器只是缺乏太多信息。 AMD 已经明确表示 FSR“1.0”是一种空间放大算法,但未来的版本可能是时间的,或者其他的。他们认为超分辨率是一个活跃的研究领域,并愿意做出改变以改进他们的产品。请记住,NVIDIA DLSS 1.0 完全不同
TPU关于AMD FSR测试总结 结论 终于到了。在 NVIDIA 推出 DLSS 近两年后,我们推出了 FidelityFX 超级采样功能,它可以击败 NVIDIA 最强大的卖点之一。 AMD 花时间完善了该技术的核心组件,这是一个智能升级器,试图锐化和保留其输出的细节。 FSR 很容易集成到任何现代 3D 游戏的渲染管道中。实际上,它不必只是游戏。该技术仅查看单个图像,因此理论上它可以用于放大照片、视频或其他任何内容。据 AMD 称,FSR 代码将在“7 月中旬”在他们的 GPUOpen 网站上开源。着色器代码目前尚未公开,而且 AMD 不愿意与我分享——我问过。所以它在技术上仍然是一个黑匣子,就像 NVIDIA DLSS,但我相信 AMD 会很快发布它,因为开放性将推动采用率。 此外,鉴于 FSR 的开源性质,很容易进一步采用/优化它以用于 NVIDIA 的 GPU 架构。此时,FSR 在 NVIDIA 上的性能扩展比在 AMD 上要低,但它仍然表现出色。我只希望 AMD 将社区反馈整合到官方代码库中。最后但并非最不重要的一点是,通过免费提供源代码,开发人员可以更自由地调整并将其应用于他们的用例。不喜欢锐化?引擎集成也容易得多,因为 FSR 只是一段着色器代码,对硬件没有任何特殊依赖,不像 NVIDIA DLSS,它需要 GPU 中的 Tensor Core。 NVIDIA 之外没有人知道 DLSS 是否可以在没有 Tensor Core 的情况下运行良好,而且 NVIDIA 肯定不会将其移植到其他架构上。另一方面,AMD FSR 今天在 NVIDIA 图形硬件上运行得非常好。因此,即使您使用的是 3 岁的 Pascal,您也可以添加免费性能——这是 DLSS 无法做到的! 现在,最大的问题是——它有效吗?从性能的角度来看,它肯定是!即使是提供最高图像质量的“超高品质”预设,也能让您将帧速率提高 25-40%,这在具有 1440p 硬件的 4K 显示器上播放时会非常方便。虽然我们今天测试的游戏并不是最苛刻的,但数字不言而喻。 Radeon RX Vega 64 在 4K 时一团糟,现在非常具有可玩性,尤其是如果你愿意牺牲一些质量的话。这也为 Radeon RX 580 等显卡注入了新的活力,这些显卡现在可以在 1440p 下实现良好的帧率。对于仍然使用这种老一代硬件的人来说,这是一件大事,他们可能想在 2020-21 年进行升级,但被高昂的 GPU 价格推迟了。当您在平衡、性能和质量模式之间切换时,您的帧速率会增加一倍以上,这只会增加您的自由度。 从质量的角度来看,我不得不说我对 FSR“超质量”的结果感到非常惊讶。图形看起来几乎和原生一样好。在某些情况下,它们甚至比原生渲染看起来更好。不同之处在于 FSR 添加了一个锐化通道,有助于在某些游戏中处理纹理细节。与 Fidelity FX CAS 非常激进且经常过度锐化不同,FSR 的锐化非常微妙且几乎完美——而且我不喜欢后期处理效果。我无法发现任何振铃伪影或类似问题。 FSR 更注重性能的模式绝对不适合那些想要最好质量的人——渲染分辨率的损失变得非常明显,非常快,尤其是在色彩强烈和对比度高的区域。不过,我不确定我们是否应该完全将这些模式视为“无法使用”。例如,如果您拥有较旧的图形卡和 4K 显示器,“FSR 性能”的输出看起来会比简单地以 1080p 渲染并让显示器或 GPU 将输出升级到显示器的原生 4K 效果要好得多——我测试过。以 1920x1080 渲染的 FSR 性能甚至比放大到 4K 的 1440p 看起来更好。 虽然 NVIDIA DLSS 是时间的,但 FSR 只查看单个帧。这具有避免由于对象在与场景其余部分不同的方向移动而导致的“重影”渲染错误的巨大优势。 NVIDIA 通过 DLSS 2.0 解决了这个问题,但该方法要求游戏开发人员将对象的运动矢量从他们的游戏引擎提供给 DLSS 算法。另一方面,这种时间方法为 DLSS 提供了更多信息——多幅图像加上运动矢量。从技术角度来看,这使得 DLSS 更胜一筹,尤其是在更高的比例因子下,因为空间放大器只是缺乏太多信息。 AMD 已经明确表示 FSR“1.0”是一种空间放大算法,但未来的版本可能是时间的,或者其他的。他们认为超分辨率是一个活跃的研究领域,并愿意做出改变以改进他们的产品。请记住,NVIDIA DLSS 1.0 完全不同
TPU关于AMD FSR测试总结 结论 终于到了。在 NVIDIA 推出 DLSS 近两年后,我们推出了 FidelityFX 超级采样功能,它可以击败 NVIDIA 最强大的卖点之一。 AMD 花时间完善了该技术的核心组件,这是一个智能升级器,试图锐化和保留其输出的细节。 FSR 很容易集成到任何现代 3D 游戏的渲染管道中。实际上,它不必只是游戏。该技术仅查看单个图像,因此理论上它可以用于放大照片、视频或其他任何内容。据 AMD 称,FSR 代码将在“7 月中旬”在他们的 GPUOpen 网站上开源。着色器代码目前尚未公开,而且 AMD 不愿意与我分享——我问过。所以它在技术上仍然是一个黑匣子,就像 NVIDIA DLSS,但我相信 AMD 会很快发布它,因为开放性将推动采用率。 此外,鉴于 FSR 的开源性质,很容易进一步采用/优化它以用于 NVIDIA 的 GPU 架构。此时,FSR 在 NVIDIA 上的性能扩展比在 AMD 上要低,但它仍然表现出色。我只希望 AMD 将社区反馈整合到官方代码库中。最后但并非最不重要的一点是,通过免费提供源代码,开发人员可以更自由地调整并将其应用于他们的用例。不喜欢锐化?引擎集成也容易得多,因为 FSR 只是一段着色器代码,对硬件没有任何特殊依赖,不像 NVIDIA DLSS,它需要 GPU 中的 Tensor Core。 NVIDIA 之外没有人知道 DLSS 是否可以在没有 Tensor Core 的情况下运行良好,而且 NVIDIA 肯定不会将其移植到其他架构上。另一方面,AMD FSR 今天在 NVIDIA 图形硬件上运行得非常好。因此,即使您使用的是 3 岁的 Pascal,您也可以添加免费性能——这是 DLSS 无法做到的! 现在,最大的问题是——它有效吗?从性能的角度来看,它肯定是!即使是提供最高图像质量的“超高品质”预设,也能让您将帧速率提高 25-40%,这在具有 1440p 硬件的 4K 显示器上播放时会非常方便。虽然我们今天测试的游戏并不是最苛刻的,但数字不言而喻。 Radeon RX Vega 64 在 4K 时一团糟,现在非常具有可玩性,尤其是如果你愿意牺牲一些质量的话。这也为 Radeon RX 580 等显卡注入了新的活力,这些显卡现在可以在 1440p 下实现良好的帧率。对于仍然使用这种老一代硬件的人来说,这是一件大事,他们可能想在 2020-21 年进行升级,但被高昂的 GPU 价格推迟了。当您在平衡、性能和质量模式之间切换时,您的帧速率会增加一倍以上,这只会增加您的自由度。 从质量的角度来看,我不得不说我对 FSR“超质量”的结果感到非常惊讶。图形看起来几乎和原生一样好。在某些情况下,它们甚至比原生渲染看起来更好。不同之处在于 FSR 添加了一个锐化通道,有助于在某些游戏中处理纹理细节。与 Fidelity FX CAS 非常激进且经常过度锐化不同,FSR 的锐化非常微妙且几乎完美——而且我不喜欢后期处理效果。我无法发现任何振铃伪影或类似问题。 FSR 更注重性能的模式绝对不适合那些想要最好质量的人——渲染分辨率的损失变得非常明显,非常快,尤其是在色彩强烈和对比度高的区域。不过,我不确定我们是否应该完全将这些模式视为“无法使用”。例如,如果您拥有较旧的图形卡和 4K 显示器,“FSR 性能”的输出看起来会比简单地以 1080p 渲染并让显示器或 GPU 将输出升级到显示器的原生 4K 效果要好得多——我测试过。以 1920x1080 渲染的 FSR 性能甚至比放大到 4K 的 1440p 看起来更好。 虽然 NVIDIA DLSS 是时间的,但 FSR 只查看单个帧。这具有避免由于对象在与场景其余部分不同的方向移动而导致的“重影”渲染错误的巨大优势。 NVIDIA 通过 DLSS 2.0 解决了这个问题,但该方法要求游戏开发人员将对象的运动矢量从他们的游戏引擎提供给 DLSS 算法。另一方面,这种时间方法为 DLSS 提供了更多信息——多幅图像加上运动矢量。从技术角度来看,这使得 DLSS 更胜一筹,尤其是在更高的比例因子下,因为空间放大器只是缺乏太多信息。 AMD 已经明确表示 FSR“1.0”是一种空间放大算法,但未来的版本可能是时间的,或者其他的。他们认为超分辨率是一个活跃的研究领域,并愿意做出改变以改进他们的产品。请记住,NVIDIA DLSS 1.0 完全不同
三星猎户座2200 GPU规格推算 已知搭载RDNA2 GPU,而且GFXBENCH Aztec HIGH离屏分数58fps,而65W TGP的pro5300M是86fps,不考虑 API影响的情况下,前者是后者的2/3性能。已知65W TGP的pro5300M实际频率1200MHz左右,20CU。经过换算,可知猎户座2200的gpu规格应该是12CU@1300MHz。PRO5300M拥有128位GDDR6显存,带宽近200GB/S。 猎户座2200只有LPDDR5@6400Mbps内存,理论带宽只有51.2GB/s,而且不是GPU独享,所以必然会内置无限缓存来解决带宽问题,个人估计这个缓存容量至少是16MB,在手游常规的720p+分辨率中能达到80%以上的数据命中率,从而极大解决带宽问题。
某RTX DLSS信徒又暴露智商了 这水军为了吹他黄爹那是不余遗力啊,可惜智商问题没有解决。 生化危机8用了AMD降噪器?到AMD官网一看,只看到标注用到AMD FFX CAS、CACAO以及SPD,并没有出现AMD FFX SSSR和Denoiser的字眼。很显然,生化危机8的反射效果依然是传统的RTX方案,并没有使用效率很高的AMD FFX SSSR技术方案。
AMD与微软联合优化光追具体细节是游戏开发者可借助AMD F AMD与微软联合优化光追 具体细节是游戏开发者可借助AMD FidelityFX2.0 API组件在单像素更少光线情况下靠降噪获得良好的图像,这个降噪功能是针对AMD RDNA2架构优化,效率很高,游戏机与PC都能受益
Xbox港服缺失一些游戏。之前用的是Xbox one国行(区 Xbox港服缺失一些游戏。 之前用的是Xbox one国行(区域改美国),最近买了台Xbox one X国行(区域设定香港),结果我发现XGP中的Xbox360移植游戏基本消失了,甚至在商店中搜索也找不到。然后,我在设置里把区域改成“美国”,重启机器后,XGP里就有这些游戏了。比如图上所示的战争机器2,在港服是没有的
我宣布目前所有光追游戏都是垃圾 10多年前的游戏就能做出很好的水面反射效果,到了近两年所谓的光追游戏就做不来了,这是什么原因,不用多说。顺便,吹捧光追游戏的人都是垃圾
开贴DISS某智z水军 这个垃圾狗一般的玩意儿宛如智z,天天无脑吹光追和DLSS。把一个故意做差反射光栅的游戏当做 光栅游戏的代表,呵呵 没有光追游戏画面就差?也不看看前代作品看门狗2的画面效果。事实证明,光追目前就是垃圾, 天天吹光追的人更是垃圾中的垃圾,就是智Z中的智Z。
没有任何意外,所谓的独显芯片就是MEMC MEMC对于游戏流程度提升自然是有效果的,只是这种效果跟原生帧率不是一回事,这技术在电视机上很早就应用了,对于运动轨迹简单的30帧视频位移画面能有效消除画面抖动,对于稍复杂点的画面变化就无能为力了
RDNA2依然不支持DX11多线程 说实话,RDNA2依然令人失望。不支持DX11多线程模式这个问题依然没有解决,结果就是DX11模式驱动开销很烂,在测评中表现出来就是1080p/1440p分辨率由于驱动开销问题导致gpu占用率偏低,如果你的cpu单线程性能不是很强,那这个问题会更为严重。 如今,牙膏厂的XE架构gpu已经支持DX11多线程模式,而A卡还是没有解决这个问题。 今晚10点的京东抢购实际上我已经抢到了,但是考虑到DX11驱动开销烂这个硬伤,我还是决定取消订单
讨论:采用进口soc芯片的手机收取60%增值税的话是利大于弊? 如题
GA100参数公布 完整版GA100拥有128SM,但是实际产品只开启108SM,屏蔽了20SM。而6颗HBM2显存也只开启5颗。 很显然,7nm制程造大核心良品率感人,只有屏蔽1/5规格才能维持生活
解析RDNA2架构比RDNA提升50%能效比的主要因素 3个图片,图二是AMD的PPT,图三是台积电的PPT。AMD PPT中指出其首款7nm GPU的工艺制程相比 上一代产品采用的GF14nm LPP在相同频率下降低50%功耗,或者在相同功耗下提升25%性能。但是台积电的 PPT中,N7工艺制程相比N16(16nm)制程在相同频率下降低功耗超过65%,在相同功耗下提升40%性能。 另外,根据苹果A9处理器的台积电16nm版能效比显著高于三星14nm版的基本事实,可以推算AMD首款7nm GPU 的工艺制程只是接近台积电N10(10nm)的表现,晶体管密度更差。而N7P相比N10同频率下降低了50%功耗,或者同功耗下提升20%+性能,这就是为何采用N7P制程的RDNA2 GPU能效比高于RDNA GPU 50%。至于IPC方面的提升,贡献比例很小,只有总体20%而已,80%来自于制程红利。 需要注意的是,英伟达的30系列Geforce显卡采用的是三星8nm制程(也就是10nm改进版),这个制程的性能情况是相比台积电N10好不了多少
1
下一页