米线山️之父 路西法not
关注数: 127 粉丝数: 210 发帖数: 13,276 关注贴吧数: 541
圆脸和卢都做视频谈o1了 最近一堆博主发这个 给阿b时政区投商单这个天才创意是谁想的 给时政圈投商单估计也是竹篮打水吧,时政圈可不吃宗教信仰那一套 我记得之前是红米小米都投过神马超 芯片设计和芯片制造,很多人是分不清的 慢慢来呗,还能怎么办你能一口气能把芯片全部给造出来了,没办法的。有人说是外包给arm做的🥲arm能做是不想赚高通联发科的那份钱吗?如果arm自己能设计这么厉害的芯片,那高通联发科不炸了,不管怎么说多个竞争者,更有益于用户 我都不敢想象,把阿b评论区和贴吧知乎的专家们都集合起来,成立一个芯片公司,估计一个月之内设计和制造都破解了。国家居然没想到这一点,我也是才知道芯片专家都在阿b评论区+贴吧知乎里。 3nm出来后,网络懂哥都了解芯片制造了 小米居功至伟让我想起了,su7出来之后,网络懂哥都了解保时捷长啥样啦,小米居功至伟 1,中国缺芯片先进制程的相关生产,但主流制程已经不缺。 2,中国缺设计软件,比如EDA,比如各种工业设计软件,有在追,还没追上。 3,芯片设计中国很擅长,有很多先进团队,只是的确被制裁后没什么出路,小米算是给了一点,不多。 4,系统层面,其实挺缺的,中国目前OS上,出彩的只有华为,因为华为又有研发又有商业。之前的先辈们都停留在实验室上,采购的系统其实水平都不行。小米的UI系统在国产安卓里算差的。
同样是魔改芯片系统+大屏幕,为什么花果成功了,锤子失败了? 如题 2020年的苹果就敢在iPad Pro上宣传你的下一台电脑何必是电脑 2020年的苹果m1可以说是定义了下一代电脑的基本形态 2025年的鸿蒙pc又想重新定义下一代电脑 但是这些老罗都在2018年干过了 当时老罗就认为手指加语音加人工智能加图形界面就是下一代电脑的基本形态 而现在让华为干得更好了 不过腐朽的苹果就始终认为笔记本电脑不需要触控,哪怕是隔壁的微软早在windows8的时候就想打通平板和笔记本认为笔记本需要触控了 现在大家大吹特吹的ai其实锤子罗永浩在2018年的时候就已经想在办公软件上实现了 说回硬件 众所周知,苹果m1 m2 m3 m4就是a14x a15x a17x a18x改名 a14x是苹果最开始的a4 a5 a5x a6 a6x跟着a数字系列手机芯片a数字x平板芯片一路迭代过来的,本质是手机A系列芯片同款gpu cpu架构不变规模p核心翻倍的产物 再用上纯正的macOS,手机上的iOS本身就是当年的os x精简过后下放的小电脑小系统,所以是ios用OSX的逻辑,而不是OSX用ios的逻辑 但是由于架构通用,所以应用可以统一开发,所以只要应用开发者允许上架苹果m系列电脑就可以直接app store去下载原生运行适配了平板ipad端的ipad游戏 苹果说完了,说华为 华为麒麟X90用的是tsv1xx一路迭代过来的,这个是服务器迭代过来之后下放到手机麒麟9000s最后下放到电脑X90上的,gpu用的也是手机同款架构马良910(或者920) 系统也是逻辑跟手机类似的大屏鸿蒙桌面操作系统,最开始混血残血鸿蒙1.0上线智慧屏,混血残血鸿蒙2.0上线手机,到现在纯血满血鸿蒙5.0上线电脑可以原生运行适配了原生鸿蒙5的手机软件,华为售价8000的matebook pro可以直接用3k120 oled触摸屏去享受丝滑高刷大平板体验 为什么目前公认苹果和华为都获得了一定程度的成功 但是当年罗永浩不管是发布845手机+锤子魔改android的Smartisan TNT OS,Smartisan TNT Station坚果tnt工作站初代(27寸10点触控4k屏+骁龙845 4g手机)和二代坚果tnt go(1亿像素865 5G手机+13寸2k 六扬声器12000mah电池的10点触控屏)这些都失败了 做系统大家都有一套办公的,比如微软有自己的office365。苹果也有Pages 文稿、Numbers 表格和 Keynote 讲演。华为直接用适配鸿蒙wps版就行。锤子罗永浩发布tnt都有坚果表文档坚果表格坚果ppt。 为什么就锤子失败了呢?是锤子性能不够订单量不够大用不了高通骁龙8cx导致的吗?还是魔改安卓系统还是远远不够的,必须要自研一个全新的操作系统?
同样是电脑用手机的逻辑下代电脑,为什么花果成功了,锤子失败了? 如题 2020年的苹果就敢在iPad Pro上宣传你的下一台电脑何必是电脑 2020年的苹果m1可以说是定义了下一代电脑的基本形态 2025年的鸿蒙pc又想重新定义下一代电脑 但是这些老罗都在2018年干过了 当时老罗就认为手指加语音加人工智能加图形界面就是下一代电脑的基本形态 而现在让华为干得更好了 不过腐朽的苹果就始终认为笔记本电脑不需要触控,哪怕是隔壁的微软早在windows8的时候就想打通平板和笔记本认为笔记本需要触控了 现在大家大吹特吹的ai其实锤子罗永浩在2018年的时候就已经想在办公软件上实现了 说回硬件 众所周知,苹果m1 m2 m3 m4就是a14x a15x a17x a18x改名 a14x是苹果最开始的a4 a5 a5x a6 a6x跟着a数字系列手机芯片a数字x平板芯片一路迭代过来的,本质是手机A系列芯片同款gpu cpu架构不变规模p核心翻倍的产物 再用上纯正的macOS,手机上的iOS本身就是当年的os x精简过后下放的小电脑小系统,所以是ios用OSX的逻辑,而不是OSX用ios的逻辑 但是由于架构通用,所以应用可以统一开发,所以只要应用开发者允许上架苹果m系列电脑就可以直接app store去下载原生运行适配了平板ipad端的ipad游戏 苹果说完了,说华为 华为麒麟X90用的是tsv1xx一路迭代过来的,这个是服务器迭代过来之后下放到手机麒麟9000s最后下放到电脑X90上的,gpu用的也是手机同款架构马良910(或者920) 系统也是逻辑跟手机类似的大屏鸿蒙桌面操作系统,最开始混血残血鸿蒙1.0上线智慧屏,混血残血鸿蒙2.0上线手机,到现在纯血满血鸿蒙5.0上线电脑可以原生运行适配了原生鸿蒙5的手机软件,华为售价8000的matebook pro可以直接用3k120 oled触摸屏去享受丝滑高刷大平板体验 为什么目前公认苹果和华为都获得了一定程度的成功 但是当年罗永浩不管是发布845手机+锤子魔改android的Smartisan TNT OS,Smartisan TNT Station坚果tnt工作站初代(27寸10点触控4k屏+骁龙845 4g手机)和二代坚果tnt go(1亿像素865 5G手机+13寸2k 六扬声器12000mah电池的10点触控屏)这些都失败了 做系统大家都有一套办公的,比如微软有自己的office365。苹果也有Pages 文稿、Numbers 表格和 Keynote 讲演。华为直接用适配鸿蒙wps版就行。锤子罗永浩发布tnt都有坚果表文档坚果表格坚果ppt。 为什么就锤子失败了呢?是锤子性能不够订单量不够大用不了高通骁龙8cx导致的吗?还是魔改安卓系统还是远远不够的,必须要自研一个全新的操作系统?
高通CEO公布骁龙AI PC最新进展,颠覆性技术价值显现 2025年5月,高通CEO安蒙在COMPUTEX大会上详细阐述了生成式AI如何通过骁龙AI PC重塑未来生活与工作场景,揭示了其在性能、AI创新及生态合作上的突破性进展。 骁龙X系列是性能与能效的双重革新,骁龙X Elite平台凭借自研Oryon CPU和Adreno GPU,在性能上超越传统PC芯片,实现多天续航与离电不降频的体验。华硕灵耀14 Air等设备以超轻薄设计、32小时续航及跨终端无缝连接能力,重新定义移动办公标准。高通与微软、联想等厂商合作,推动Windows 11 AI+PC市场份额快速攀升,美国及欧洲市场已达9%。 安蒙指出,AI正成为新一代用户界面,未来操作系统将由AI智能体驱动。个人用户可通过语音、视觉等多模态交互,结合终端感知的环境数据,实现跨设备无缝协同。例如,智能眼镜与PC联动,借助AI智能体完成复杂任务;企业场景中,AI可自动协调内部系统,生成报告、优化客户方案,甚至管理团队绩效。惠普的“未来工作战略”与联想的智能生态,均展示了AI在提升效率上的潜力。 高通强调,终端侧AI具备低延迟、高隐私和强个性化优势。骁龙X系列的45TOPS NPU支持本地化AI推理,如DaVinci Resolve处理速度较竞品快4倍,同时保障数据安全。混合AI架构下,用户可自主选择云端与终端任务分配,结合高通与英伟达合作的数据中心方案,构建高性能推理集群,推动边缘计算与云端协同发展。 高通通过Docker工具链支持开发者将AI模型迁移至终端,降低开发门槛。安蒙透露,下一代骁龙X平台将于2025年第四季度亮相,进一步优化生成式AI体验。微软、华硕等合作伙伴反馈,搭载骁龙芯片的PC因AI功能吸引大量企业用户,门店流量与兴趣显著提升。 安蒙断言,AI正从实验室走向普及,终端侧与云端的混合模式将开启全新计算时代。骁龙AI PC不仅是一次硬件升级,更是工作方式与生活场景的重构。随着高通在性能、生态及混合架构上的持续突破,生成式AI的“切实价值”正加速融入现实,推动全球用户迈向智能新纪元。 安蒙分享了一段在骁龙X Elite平台上运行3A游戏《天国:拯救》的视频,表现值得称赞。据称,目前已有1400款游戏在骁龙平台上实现了运行和优化。同时,高通还在与全球所有顶级游戏工作室开展合作,致力于为搭载Oryon CPU和Adreno GPU的骁龙X Elite“带来绝佳的游戏体验”,包括与Epic Games合作,将Easy Anti-Cheat引入搭载骁龙平台的Windows PC,解锁更多全新的游戏体验。此外,《堡垒之夜》也将登陆骁龙平台。 对于有着更高要求的用户来说,高通也保持着清晰的自我认知。安蒙称,“我们的旅程刚刚起步,前途非常光明。我们始终在不断努力,并将继续携手微软、所有的应用提供商、ISV和游戏工作室合作,为大家带来出色的使用体验。” 这里之所以提及CPU、GPU性能,是因为,从高通角度而言,作为骁龙平台中高通AI引擎的重要部分,其表现也与AI相关。 高通在今年2月发布的《AI变革正在推动终端侧推理创新》白皮书中称,“高通AI引擎结合了定制NPU、CPU和GPU的能力”;“高通技术公司长期致力于开发定制CPU、NPU、GPU和低功耗子系统,同时拥有封装技术和热设计的技术专长,构成了其行业领先系统级芯片(SoC)产品的基础,这些SoC能够直接在终端侧提供高性能、高能效的AI推理,通过紧密集成这些核心组件,高通技术公司的平台可在保持电池续航和整体能效表现的同时处理复杂AI任务,这对边缘侧用例至关重要”。 除了性能和能效提升,带动AI PC受到广泛关注并取得明显成绩的一大关键,是AI。 安蒙也坦言,性能和出色的电池续航确实至关重要,“但真正令人激动的,也是我们进入这个市场的主要原因,是AI即将带来的变革。” 从高通的视角看到的图景是:“当我们将AI应用到各类终端设备上,AI成为了新的用户界面(UI)”;“未来操作系统或将变成一个AI智能体的聚集体,但本质上,AI将成为生产力的核心操作系统,而在其中是AI智能体填充和驱动,如今这一趋势变得愈发清晰。” 对于用户而言,这些话该怎么理解?又与自己如何相关? 安蒙通过一些具体实例,将AI带来的未来生活图景清晰、具体地描绘了出来,体现了终端设备、操作系统和应用程序未来的发展方向。从中能够感受到这刷新了我们当下的生活和工作方式。 对于个人用户而言,你可以不受传统操作系统或者应用的限制,获得将所有这些终端整合在一起的全新体验。
经济系统已经成了这个游戏的累赘,你多菜都能进绝密舍弃了竞技性 三角洲火的原因就是不管你有多菜都能进绝密,舍弃了竞技性,所以很多玩竞技性很强的游戏的比如lol和瓦的玩家会来玩 所以我建议推出一个全新的玩法 要是做成竞技向的,段位只能通过撤离和杀人涨(撤不出来和对枪没对过直接扣分)黄金以下不准进机密,黑鹰以下不准进绝密 对于不缺钱的人来说,开游戏就是抽奖,目的是新的收集品,哈夫币本身毫无意义,以他们的玩法资产永远不会下降,甚至做完3*3现金还增加了。 对于缺钱的人来说,经济系统已经影响到了他们能否获得想要的游戏体验,没钱只能委屈自己使用较差的装备,装备差导致撤离率降低资产就会更低陷入负循环。 所以我建议这个全新的玩法直接取消经济系统,带出来的东西直接点亮图鉴,装备不用花钱,交易行全部系统放开无限补货制无限买零元购,想起什么起什么想怎么搜怎么搜,大家都有美好未来 做成竞技向的话,那装备也要限制,比如普通只准零套一套和二套零蛋一弹和二弹进同时添加战备上限30w(仅装备不含物资),黄金才能进的机密只准三级套和四级套0弹(肉蛋修脚)三弹和4弹进同时添加战备上限60万(仅装备不含物资),黑鹰才能进的绝密只准四五六套034567弹进(战备上限含物资最高值375w还是355w来着)?
感觉追求极限跑分极限性能卵用没有啊 如图 小米玄戒O1 gb6多核跑8800分只需要9.45w 但是跑9000多分需要整整14.5w 14.5w啊,手都烤熟了 不光cpu是这样,gpu也是这样 明明只要7瓦主板功耗就能跑3dmark snl 1900分 10瓦主板功耗就能跑2400分 但是手机厂商却偏要去超那个极限频率去冲击那个2500 2600分,哪怕那个时候手机主板15瓦20瓦,太变态了,根本用不到,只是为了在斗气中赢罢了 还有就是目前的手机厂商做的手机芯片,实际上都是面对平板做的 比如图3及以后的 小米澎湃o1降频版在平板上面表现更好,不仅能效更好,而且峰值分数也差不多甚至更高 手机厂商应该多出降频版本的旗舰芯片,量大环保降低价格,价格实惠然后给廉价性价比手机使用就行 至于真正的旗舰手机,那就用那些烤猪蹄的18瓦的芯片去吧 网上的所有人啊都在盯着,就是买回家这个天玑9400和骁龙8elite的机器,然后在那边就是疯狂的去跑分,然后试图跑到一个就是很高的一个分儿,然后跑不到就说哎呀,这个垃圾跑不到这个分儿,就是我觉得跑分整件事情一开始就是没有意义的。 有没有可能真正的博主连首发的时候都没有去花很多时间去说这个。 跑分就是一直一直以来跑分都是要跟功耗做结合的对吧?跑分其实本身是最不重要的,就是有本事咱们都讲能效对吧?就是你跑一个分儿的同时你看他跑多少功耗。 这个才是最有意义的,所以就是我们一直在强调能效曲线,能效曲线,能效曲线,能效曲线是最最最最重要的一个东西,而不是那个跑分,你你骁龙8亿跑不上10000分又如何呢,对吧,重要吗? 你跑不上10,000分,你的你的9000分的机器和人家真的能跑上10,000分的机器又有了何区别?没有任何区别的啊你你的那个什么呃天玑9400的机器你跑不上9000分的和你8000分和9000分有什么区别?你用起来是一点区别都没有,没有任何区别的。 就一点都不重要的,这根本不重要,但是能效是最重要的,对吧?能效曲线很重要啊,所以所以所以我一直我们这么多,就至少最近两年时间有我们引入能效曲线之后就一直在。 一直在强调这一点,不要看跑分,不要看跑分,看跑分的同时你要看能效,对吧?就是能效曲线是就很重要,很重要
为什么游戏主机诞生不了ai只有pc显卡才能? 知道为什么日本AI水平稀烂吗?就是因为日本人太爱玩电子垃圾,抱着个Switch当宝贝,导致PC技术停滞不前,AI被中国吊打。游戏机禁令简直是功德无量。 正是因为有当年的游戏机禁令,才有了当下中 国AI的迅猛发展,因为游戏机是一种完完全全的垃圾电子产品,它的存在只会阻碍技术进步。 游戏主机和高性能显卡和AI一毛钱关系都没有,历代游戏主机用的都是当年中等偏下的硬件配置,靠着游戏厂商玩命优化才能达到PC 中端配置的体验.而且主机六七年才换一代,基 本上第二年技术就完全过时了. 真正支持高性能显卡和图形尖端技术的,从来 都是PC游戏,而PC游戏在国内从未被禁止过 《DOOM》,《QUAKE》,《半条命》 《孤岛危机》 ......这些在技术层面上划时代 的大作全都是基于PC平台开发的. 《DOOM》在1993年就用上了高精度的真 3D引擎,同时代的游戏机是什么?16位的SFC 二代小霸王 游戏主机说白了就是一种廉价特定用途的垃 圾计算机而已,它不光跟尖端技术毫无关系,甚 至大大的有害 因为游戏主机的漫长换代周期和垃圾一样的 硬件机能,游戏机厂商对于技术的态度是非常 保守的.我举个例子来说,任天堂2001发布的 高性能游戏主机NGC,硬件性能比同代的 PS2还好,但是你知道NGC用的是什么文件载 体吗? MINI-DVD光盘,容量只有普通DVD光盘的三 分之一,垃圾中的垃圾 无独有偶,索尼的PS3游戏机因为复杂的硬件 架构和内存管理问题,导致游戏开发难度巨高, 而同代的Xbox360+也不能免俗,因为劣质的 电源和芯片设计导致频繁出现三红故障,两个 电子垃圾堪称一对旗鼓相当的对手. 所以说游戏机市场就是一群虫豸在菜鸡互啄, 为了压缩成本都在玩命地偷工减料,逼迫游戏 开发者不得不在低级的技术环境下为了照顾 这些劣质硬件玩命优化,然后被这种垃圾环境 潜移默化成忽视技术进步的东瀛游戏仙人,最 后卷出任天堂这么个电子垃圾届的终极王者 2025年任天堂发布新一代游戏主机Switch2 这个游戏主机的性能如何呢?不如五年前的手 机,芯片垃圾到论斤卖都找不着买家 一个显而易见的事实就是,游戏主机最发达的 国家,AI技术反而垃圾得一批,没错我说的就是 日本.遍地都是东瀛游戏仙人,不去提升硬件技 术水平,不去提升计算机图形技术,一辈子就在 琢磨那个破逼游戏性,琢磨着怎么把游戏优化 进一坨电子垃圾里混完八年,然后反手掏出一 个比过时手机还烂的新主机圈钱. 这么畸形的环境,怎么可能推动AI技术进步? AI技术的核心就是超高性能运算卡,一张 5090的AI算力,保底是Switch2的100倍 也许有人会跳出来说,PS5也是主机,PS5的性 能就很好.抱歉,PS5在PC面前也是电子垃圾, 跑个《黑神话》都要冒烟的** 现在看来,幸亏当年国家出手封杀了游戏主机 这种毫无价值的电子垃圾,逼迫中国游戏公司 全力深耕PC游戏领域,用大型PC网游锻炼出 了几个游戏巨头公司和大量的技术人才储备 这才有了AI领域的技术飞跃,有了和美国一较 高下的资本 《剑网三》、《天下二》+、《完美世界 、《三角洲行动》+这种大型网络端游,你 可以说它们在游戏审美层面垃圾的一批,但是 在技术领域,特别是涉及到计算机图形学、网 络数据交换、服务器存储、大数据归纳等和 AI技术强相关的领域,真的含金量远胜任天堂 那种东瀛仙人游戏.腾讯、网易这些国内游戏 公司巨头,对AI的投入也比东瀛游戏仙人们要 多得多得多 玩游戏就好好玩游戏,别拿着游戏当大旗在那 儿扯有的没的 至于游戏机,还是让任天堂的东瀛游戏仙人们研究去吧,研究怎么在螺丝壳里做道场,研究怎 么屎上雕花,研究怎么把《原神》移植到那个 电子垃圾Switch2里,尽情去研究,最好研究一辈子,千万别来打PC的主意
还在说玄界o1是换皮的,得有勇气面对现实! 人要相信逻辑,你会为了打击美国洛马公司,就把歼20的图纸直接给美国波音吗?还是你觉得美国为了打击中国成飞,会把歼35的图纸直接给沈飞? 有人说把自家发展进步放置在靠别国吃剩下施舍来的路上就永远不可能强大,唯有自强追赶超越,自主道路 但是光说漂亮话有啥用?技术是天降的?不是一点一点研究的?有捷径可以让你少研究几十年干嘛不用?有大病吧? 目前已知的发达国家,最开始都是逆向英法的科技。然后逐步的自身去发展原创。美,德,日,韩等等皆是如此,第一次世界大战前,日本,德国,美国还被称为可恶的造假国,而今天呢?自主追赶,你得先有技术去学习。如果你连技术都不了解,那还怎么追赶? 德国日本美国 无数的工业大国都是一开始从山寨到模仿然后才有原创 中美七十年代蜜月期卖给中国的直升机到现在还是最好的,按你的说法要鸡毛黑鹰,自己研究啊。 缩回小米玄戒o1,最新的跑分已经超过了联发科的9400+和苹果A18Pro还有高通骁龙8elite了,有两个X925超大核,可能是比别的芯片大得多的一级缓存和二级缓存。十核四丛集的CPU设计和16核心1.8ghz G925的gpu设计,联发科可是从来就没过四丛集3.9ghz X925的CPU设计和16核心1.8ghz G925的gpu设计设计,只有三丛集 3.73ghz X925的CPU设计和12核1.6ghz g925的gpu设计,然后高通压根就没出过x925 a725的移动SoC。 联发科和高通能把自己都没有的东西换皮给别人吗?而且还是性能参数还超过或者局部超过自己的cpu送给别人?如果你说是三星换皮,至少说明还有点脑子,因为三星真的有过这种10核心5g SoC的设计。 还有质疑小米三年2500人135亿就能开发出如此性能芯片的,其实早在麒麟980时代,媒体量子位就有对华为采访,当时的信息是1000人,3年,3~10亿美元,多数证据表明,华为麒麟980的研发费用约为3亿美元(约合人民币21亿元)。这一数字被广泛引用,且多次由华为相关人士确认。一些证据提到麒麟980的研发费用可能高达10亿美元(约合人民币70亿元),甚至有说法称接近20亿美元。这些数字显著高于主流估算,可能是将研发费用与其他芯片分摊费用混淆所致。 另一方面,也有证据指出,麒麟980的研发费用可能远低于3亿美元,例如华为Fellow艾伟(主要成就:主导麒麟960芯片研发包括麒麟960的安全防护全网通通信能力及仿生ISP技术的人)否认了3亿美元的传言,并表示实际投入可能更低。 仅此而已。天天就知道说千亿研发的,拜托用你们的脑子好好的想一想:就是一块芯片卖他个1000块,至少也要卖一亿部手机才能到本啊!这么多年了华为旗舰有一次卖过1亿一部吗?请告诉我:你这千亿研发说法站得住脚吗? 小米玄戒O1芯片:采用2×3.9GHz + 4×3.4GHz + 2×1.89GHz + 2×1.8GHz架构。它用第二代3nm工艺(台积电N4P 4nm优化版),晶体管数量190亿。性能上,单核比天玑9400+高5.6%;GPU的OpenCL得分比骁龙Adreno740强11%。你是相信你自己的脑子,还是相信铺天盖地的抹黑呢?借用一下别人的图。
还在说玄界o1是换皮的,得有勇气面对现实! 人要相信逻辑,你会为了打击美国洛马公司,就把歼20的图纸直接给美国波音吗?还是你觉得美国为了打击中国成飞,会把歼35的图纸直接给沈飞。 最新的跑分已经超过了联发科的9400+和苹果A18Pro还有高通骁龙8elite了,有两个X925超大核,可能是比别的芯片大得多的一级缓存和二级缓存。十核四丛集的CPU设计和16核心1.8ghz G925的gpu设计,联发科可是从来就没过四丛集3.9ghz X925的CPU设计和16核心1.8ghz G925的gpu设计设计,只有三丛集 3.73ghz X925的CPU设计和12核1.6ghz g925的gpu设计,然后高通压根就没出过x925 a725的移动SoC。 联发科和高通能把自己都没有的东西换皮给别人吗?而且还是性能参数还超过或者局部超过自己的cpu送给别人?如果你说是三星换皮,至少说明还有点脑子,因为三星真的有过这种10核心5g SoC的设计。 还有质疑小米三年2500人135亿就能开发出如此性能芯片的,其实早在麒麟980时代,媒体量子位就有对华为采访,当时的信息是1000人,3年,3~10亿美元,多数证据表明,华为麒麟980的研发费用约为3亿美元(约合人民币21亿元)。这一数字被广泛引用,且多次由华为相关人士确认。一些证据提到麒麟980的研发费用可能高达10亿美元(约合人民币70亿元),甚至有说法称接近20亿美元。这些数字显著高于主流估算,可能是将研发费用与其他芯片分摊费用混淆所致。 另一方面,也有证据指出,麒麟980的研发费用可能远低于3亿美元,例如华为Fellow艾伟(主要成就:主导麒麟960芯片研发包括麒麟960的安全防护全网通通信能力及仿生ISP技术的人)否认了3亿美元的传言,并表示实际投入可能更低。 仅此而已。天天就知道说千亿研发的,拜托用你们的脑子好好的想一想:就是一块芯片卖他个1000块,至少也要卖一亿部手机才能到本啊!这么多年了华为旗舰有一次卖过1亿一部吗?请告诉我:你这千亿研发说法站得住脚吗? 小米玄戒O1芯片:采用2×3.9GHz + 4×3.4GHz + 2×1.89GHz + 2×1.8GHz架构。它用第二代3nm工艺(台积电N4P 4nm优化版),晶体管数量190亿。性能上,单核比天玑9400+高5.6%;GPU的OpenCL得分比骁龙Adreno740强11%。你是相信你自己的脑子,还是相信铺天盖地的抹黑呢?借用一下别人的图。
老用户被AMD直接抛弃,amd新卡9070GRE定价凸显颓废 台北电脑展上AMD公布了全新FSR技术,包括基于机器学习加速的光线追踪(对标DLSS RR)、基于机器学习加速的帧生成(对标DLSS MFG) 这些技术全部为RDNA4显卡独占,没RDNA2、RDNA3什么事,7900XTX等老卡用户被AMD直接抛弃 对比英伟达的DLSS4,T模型、RR都是下放老卡的,50系仅独占MFG,而FSR4的所有特性都不下放老卡,可见老用户在AMD是多么不受待见 你不能只在AMD没有AI超分和AI帧生成时反对这两项技术。 牢A自己之前走错路的后果就是用户来承担咯,之前还说什么“游戏卡不应该加太多AI”之类的话牢黄那边20系就有的矩阵张量单元直到RDNA3都没有,这么一搞79XTX的整数算力甚至连2080Ti都不如。 结果现在不还是只能乖乖跟着牢黄步子走? 结果就是以前的用户成小白鼠了 本来把cdna和rdna分开就是一步臭棋,导致rdna fp16 int8算力严重不足,下一代整合的udna如果表现好的话可以给黄狗一点压力 与之相反的例子是epyc和ryzen,amd卖大楼之后在夹缝中生存搞出了zen架构,epyc和ryzen共用一个架构的好处就是新技术都能给消费级用,x3d就是这么来的 然后amd的新显卡9070gre等等定价过于抽象,就这和7900gre差不多的传统性能就敢卖4000了传统性能和4070s差不多,路径追踪远远不如,显存容量都是12g的情况下,敢卖差不多的价格?不知道是谁给的胆子 FSR4使用传统cnn模型才出不久的,FSR4适配的游戏数量和fsr4本身画质颜值表现还能吊打dlss3 fg补帧+全新tf模型超分不成?
nv和amd哪边的毛发系统能力更强画质更好? NV RTX Hair + HairWorks vs amd TressFX 5.0 AMD TressFX最初于2013年发布,用于《古墓丽影9》中劳拉的头发渲染,被认为是当时世界上最真实的头发渲染技术之一。它支持数万根头发的实时渲染,每根头发都被视为一个独立的链接,通过复杂的物理模拟系统来实现自然的动态效果。此外,TressFX还支持复杂的光照处理和抗锯齿效果,使得毛发看起来更加细腻和真实。 AMD TressFX(物理模拟与开源支持) 物理模拟与开源特性:基于DirectCompute和 次序无关透明(OIT)技术,每根发丝被建模为多段“链接”,支持重力、风力、碰撞检测等物理交互。2024年发布的 TressFX 5.0 进一步优化了Unreal Engine的兼容性,支持Marschner光照模型和骨骼绑定。 跨平台性能:TressFX代码开源,在AMD和NVIDIA硬件上性能差异较小(早期测试显示其效率是HairWorks的9倍),且支持多平台开发。 TressFX通过PPLL(每像素链接列表)管理半透明发丝的渲染顺序,减少边缘锯齿和闪烁问题,在《古墓丽影9》中劳拉头发的飘逸感尤为突出。 动态响应速度:发丝对角色动作(如头部转动)的物理反馈更灵敏,适合强调人物表情互动的场景。 低开销与开源生态:TressFX依赖DirectCompute通用计算,对显存带宽需求较低,在RDNA架构显卡(如RX 6000系列)上能以更低功耗实现相近效果。 多平台兼容性:TressFX 5.0支持Unreal Engine 5和Maya插件,开发者无需依赖特定硬件即可优化毛发效果 NVIDIA的毛发渲染技术在近年来取得了显著进展,尤其是在RTX 50系列GPU和HairWorks技术的支持下,实现了更高的画质表现和性能优化。 RTX Hair 技术:RTX Hair 是 NVIDIA 最新的毛发渲染技术,采用 Linear-Swept Spheres(LSS)几何单元,相较于传统的多边形方法,能够更高效地表示单根发丝,减少几何体数量,从而显著降低显存占用并提升帧率。例如,在一个角色的头发渲染中,传统方法需要600万个三角形,而RTX Hair 技术仅需少量球体即可实现更逼真的效果。 HairWorks 技术:HairWorks 是 NVIDIA 早期开发的一项毛发渲染技术,通过细分曲面(Tessellation)技术实现动态且逼真的毛发效果。它曾在《使命召唤:幽灵》和《巫师3:狂猎》等游戏中得到应用,支持数十万根毛发的实时渲染。HairWorks 1.1 版本进一步提升了长发的渲染能力,并在《巫师3》中展示了其极限效果。 画质表现:NVIDIA 的毛发渲染技术不仅提升了细节的真实感,还优化了阴影和动态效果。例如,在《孤岛惊魂4》中,动物毛发的数量达到了19万根,而在《巫师3》中,主角头发和士兵皮甲的毛发随着动作自然变化。此外,HairWorks 技术在《最终幻想15》中也显著提升了角色头发的视觉效果。 性能优化:通过使用更高效的几何单元(如LSS),NVIDIA 的毛发渲染技术大幅减少了计算负载。例如,传统方法渲染一根头发可能需要400万个多边形,而采用球体后仅需少量几何体即可达到相似效果,这使得毛发渲染更加流畅。 NVIDIA 的毛发渲染技术在画质和性能上均实现了突破性进展,尤其是在RTX 50系列GPU和HairWorks技术的支持下,为游戏和影视制作带来了更逼真、更流畅的视觉体验。 NVIDIA的优势 光线追踪精度:LSS基元在光线追踪场景中能更精确地模拟发丝的光影反射和透射,尤其在高动态范围(HDR)环境下,发丝的光泽和阴影层次感更接近真实。 大规模毛发渲染:例如《巫师3》中狼群和《孤岛惊魂4》中孟加拉虎的毛发,通过HairWorks技术实现19万根独立发丝的动态效果。 AI增强细节:神经物理学技术可预测头发运动轨迹,减少人工调整需求,适用于电影级角色建模。 NVIDIA代表作品 《巫师3:狂猎》:动物毛发(如狼、熊)的动态效果和全局光照交互成为行业标杆。 《使命召唤:幽灵》:军犬的47万根毛发渲染展示了HairWorks的大规模处理能力。 技术路线差异 NVIDIA:侧重硬件专用单元(如RT Core)与AI辅助,追求极限画质,但生态封闭性较强。 AMD:以通用计算和开源工具包(如FidelityFX)降低开发门槛,更适合中小型工作室。 所以哪边更强呢?
nv和amd哪边的毛发系统能力更强画质更好? NV RTX Hair + HairWorks vs amd TressFX 5.0 为不懂的人科普一下 undefined TressFX最初于2013年发布,用于《古墓丽影9》中劳拉的头发渲染,被认为是当时世界上最真实的头发渲染技术之一。它支持数万根头发的实时渲染,每根头发都被视为一个独立的链接,通过复杂的物理模拟系统来实现自然的动态效果。此外,TressFX还支持复杂的光照处理和抗锯齿效果,使得毛发看起来更加细腻和真实。 AMD TressFX(物理模拟与开源支持) 物理模拟与开源特性:基于DirectCompute和 次序无关透明(OIT)技术,每根发丝被建模为多段“链接”,支持重力、风力、碰撞检测等物理交互。2024年发布的 TressFX 5.0 进一步优化了Unreal Engine的兼容性,支持Marschner光照模型和骨骼绑定。 跨平台性能:TressFX代码开源,在AMD和NVIDIA硬件上性能差异较小(早期测试显示其效率是HairWorks的9倍),且支持多平台开发。 TressFX通过PPLL(每像素链接列表)管理半透明发丝的渲染顺序,减少边缘锯齿和闪烁问题,在《古墓丽影9》中劳拉头发的飘逸感尤为突出。 动态响应速度:发丝对角色动作(如头部转动)的物理反馈更灵敏,适合强调人物表情互动的场景。 低开销与开源生态:TressFX依赖DirectCompute通用计算,对显存带宽需求较低,在RDNA架构显卡(如RX 6000系列)上能以更低功耗实现相近效果。 多平台兼容性:TressFX 5.0支持Unreal Engine 5和Maya插件,开发者无需依赖特定硬件即可优化毛发效果 NVIDIA的毛发渲染技术在近年来取得了显著进展,尤其是在RTX 50系列GPU和HairWorks技术的支持下,实现了更高的画质表现和性能优化。 RTX Hair 技术:RTX Hair 是 NVIDIA 最新的毛发渲染技术,采用 Linear-Swept Spheres(LSS)几何单元,相较于传统的多边形方法,能够更高效地表示单根发丝,减少几何体数量,从而显著降低显存占用并提升帧率。例如,在一个角色的头发渲染中,传统方法需要600万个三角形,而RTX Hair 技术仅需少量球体即可实现更逼真的效果。 HairWorks 技术:HairWorks 是 NVIDIA 早期开发的一项毛发渲染技术,通过细分曲面(Tessellation)技术实现动态且逼真的毛发效果。它曾在《使命召唤:幽灵》和《巫师3:狂猎》等游戏中得到应用,支持数十万根毛发的实时渲染。HairWorks 1.1 版本进一步提升了长发的渲染能力,并在《巫师3》中展示了其极限效果。 画质表现:NVIDIA 的毛发渲染技术不仅提升了细节的真实感,还优化了阴影和动态效果。例如,在《孤岛惊魂4》中,动物毛发的数量达到了19万根,而在《巫师3》中,主角头发和士兵皮甲的毛发随着动作自然变化。此外,HairWorks 技术在《最终幻想15》中也显著提升了角色头发的视觉效果。 性能优化:通过使用更高效的几何单元(如LSS),NVIDIA 的毛发渲染技术大幅减少了计算负载。例如,传统方法渲染一根头发可能需要400万个多边形,而采用球体后仅需少量几何体即可达到相似效果,这使得毛发渲染更加流畅。 NVIDIA 的毛发渲染技术在画质和性能上均实现了突破性进展,尤其是在RTX 50系列GPU和HairWorks技术的支持下,为游戏和影视制作带来了更逼真、更流畅的视觉体验。 NVIDIA的优势 光线追踪精度:LSS基元在光线追踪场景中能更精确地模拟发丝的光影反射和透射,尤其在高动态范围(HDR)环境下,发丝的光泽和阴影层次感更接近真实。 大规模毛发渲染:例如《巫师3》中狼群和《孤岛惊魂4》中孟加拉虎的毛发,通过HairWorks技术实现19万根独立发丝的动态效果。 AI增强细节:神经物理学技术可预测头发运动轨迹,减少人工调整需求,适用于电影级角色建模。 NVIDIA代表作品 《巫师3:狂猎》:动物毛发(如狼、熊)的动态效果和全局光照交互成为行业标杆。 《使命召唤:幽灵》:军犬的47万根毛发渲染展示了HairWorks的大规模处理能力。 技术路线差异 NVIDIA:侧重硬件专用单元(如RT Core)与AI辅助,追求极限画质,但生态封闭性较强。 AMD:以通用计算和开源工具包(如FidelityFX)降低开发门槛,更适合中小型工作室。 所以哪边更强呢?
手机厂商吹嘘的系统调教全是骗局?骁龙8g3真实性能被榨干了吗? 说说优化吧 很多KOL非常喜欢吹嘘手机系统调教带来的“优势”,但实际上除了超频以外没有任何的调教能真正提升硬件性能,芯片制程决定的晶体管数量、内存带宽、闪存IOPS等硬件参数构成不可突破的天花板,骁龙8 Gen3的CPU单核IPC约提升37%即由架构迭代决定,骁龙8 Gen3的Adreno750 GPU跑770mhz时的理论FP32算力2.3TFlops,实际游戏场景利用率常低于40%,这主要是由于着色器效率损失,动态分支导致SIMD单元利用率降至60%,还有就是显存带宽限制,当前主流LPDDR5X-8533内存理论带宽68.26GB/s,任何软件层面的优化都无法突破这个物理极限,68.26GB/s带宽在开启16x各向异性过滤时仅能满足75%需求,这是软件优化的主战场,不过Snapdragon Elite Gaming的Adreno GPU支持ASTC纹理压缩,带宽需求降低50%,以及通过Tile-Based Deferred Rendering(TBDR),将像素着色器负载降低40%。 说回cpu,你stock状态每秒运算多少次,你不超频再怎么调还是这么多次。除非你搞一个全新的操作系统那可以抛弃屎山让所有app重写一下那自然快,但你又不是全新的系统,你跑的app还是一样的你又不能擅自修改app的逻辑,那需要的运算量还是不变需要的时间还是不变。所以所谓系统调教,无非是平衡的艺术罢了,你要得到一些,那就得同时失去一些。就拿后台留存来说,你要后台留存,那你就得激进的使用zram和swap,那问题已经很显而易见了,你要用swap,那就磨闪存,闪存寿命是有限的你磨多了就挂了,但反正有些厂商巴不得机器过保就挂掉刚好促进换新了。你用zram,那确实不磨闪存了,但内核无法直接读取zram中的页面,zram中的页面要用到,那就会发生PF,交换回未压缩的空间,这个过程就要消耗CPU,你zram算法越激进那开销就越大,以Android内存管理为例,LMKD的oom_adj_score算法需要动态平衡:前台应用(adj=0)需保持400MB以上工作集,而缓存进程(adj=900)可能被压缩到zRAM,实验数据显示使用LZ4算法的zRAM压缩比达到3:1时解压延迟增加15ms,这正是用CPU时间换内存空间的典型案例。那怎么避免CPU开销呢,那你就得把进程冻住,你不让他动它就不会访问zram中的页面了。所以很多机器的后台留存那都是伪留存,确实进程没杀掉,但在后台也不给干活,不信你后台多开几个下载软件在那挂下载,马上现原型了。你所有进程都在频繁访问内存的情况下,物理内存不够再怎么内存压缩都会卡。那要怎么避免一些app卡呢,那就得加白名单,但白名单外的东西就不好使了,所以为什么某些机器他用app后台播放音乐没事,但用浏览器里的pwa后台播放音乐就会被杀,要知道chromium本身的标签页discard是不会discard掉有audiocontext的页面的。但你越多搞这种为了擦其他修改屁股的修改,越容易弄出regression问题来,因为你的逻辑越补的复杂就越容易出问题。所以你有的在那折腾这些有的没的调教还不如把调教开放给用户自己折腾,让用户自己要么摸索要么抄作业。调教可以让现有的硬件能力被更好的利用,但这绝对不是你购买一台电子垃圾的理由,物理硬件的能力永远是选购时最重要的标准。 cpu,gpu,内存,io,网络带宽这些资源的总量上限是硬件决定的,没有优化空间,现代CPU硬件上的调度算法的演进方向有啥呢,硬件内部的现代调度器如EAS(Energy Aware Scheduler)引入能效模型,需要同时考虑,还有就是核心簇的DVFS曲线(如Cortex-X4在0.9V时2.3GHz,1.1V时3.3GHz),以及任务迁移成本(跨簇迁移带来约15μs延迟)和异构计算单元负载(NPU/DSP的利用率监控)等等等等 SoC和系统相关优化磨合怎么分配有限的性能大有学问,丢帧卡顿杀后台,这些性能问题大部分情况都是某一种资源在某个特定时间点成为了瓶颈而其他资源很充沛在那里sleep,这个时候就要针对某些特定场景进行优化,做一系列可以联动的policy,这就是所谓的调教,最典型的场景就是跑分软件启动,还有哪怕是同一种场景,针对不同市场的policy也可能截然相反,比如,在欧洲市场,杀后台是可以容忍的,流畅性更重要,因此后台查杀和内存回收策略可以做的激进一点,但是在大陆市场,就必须对常用app尽可能保活,因为开屏广告多,互相拉起的情况多,杀进程很容易造成负收益,而在非洲,对保活的要求更极端,因为那边网速慢流量贵,起一个应用又慢又贵,一个大型游戏过了猴年马月还能热启动是能给用户带来惊喜的,而流畅性的重要程度很低
紫光展锐+IMG能不能借着车机和手机通用逆风翻盘重回旗舰? 紫光展锐在 2025 上海车展期间发布了其新一代旗舰级智能座舱芯片平台 A8880 采用最新 Arm 全大核架构,CPU 性能相对上代提升 3 倍;同时其具备“桌面级”GPU,图形性能提升 6 倍;而最新架构 NPU 则让专用 AI 算力提升了 8 倍;其内置的“专业音响级”音频 DPS 性能也相对上一代提升了 8 倍,为智能座舱的流畅交互体验打下了硬件基础。 上一代A7870是CPU集成1核A76主频2.7GHz,3核A76主频2.3G,以及4核A55主频2.1GH; GPU采用NATT 4 core @850Mhz,支持486.4 GFLOPS浮点运算; NPU拥有高达8TOPS算力; 制造工艺为6nm。 从数据上看,A7870足以和高通8155媲美。 车规级芯片需要经过18个月漫长的认证,然后性能总是落后手机一截 8155就是855 8295就是8cx gen3 byd9000 mt8673就是天玑9000 mt8676就是天玑8300 mt8675就是天玑8100或者8200 紫光A8880 cpu对应上一代从数据上A7870的gb5跑分应该是天玑和麒麟820的大概多核2500分 翻三倍就是gb5多核心7500分,相当于苹果a十八p同水平,略逊色于高通骁龙8elite和联发科天玑9400 gpu上一代是将近500GFLOPS的浮点运算翻6倍 大概在2.9~3tf水平 作为参照苹果m3的浮点运算水平是3.5tf,m4是3.8tf 也就是紫光展锐假如把这颗新的车规级芯片平移到手机平板下放的话 cpu多核性能相当于m2和8e 9400的9成水平,gpu相当于m3 m4 xelite 1060的七八成水平
web惊现离职intel员工爆料下三代p core ipc 爆料是 cougar cove int +7% campared with lion cove bug version 基本100%确定 团队:海法 coyote cove int +11% campared with cougar cove 90%确定 团队:海法 griffin cove int + 25% compared with coyote cove(?我听到不敢相信?)当成rumor吧 团队:奥斯丁 消息来源:纽约+奥斯丁组Discord 我离职快一年了,Discord pe还没把我踢了,这就是i家的保密水平 网友评论道 那也是神人了,笑死我 大英沦落到今天这个地步,主要责任还得是管理不当 還不錯 整理下 Cougar Cove 產品 [lbk]18A[rbk]: PTL Coyote Cove (Panther Cove?) 產品 [lbk]18AP[rbk]: DMR, NVL Griffin Cove [lbk]14A?[rbk] 產品: Razer Lake? pat的计划是建好几座14a fab的,有这些14a high-na fa,intel foundry就可以和tsmc正面竞争,这应该就是董事会和pat最大的分歧,直接取消了德国1座美国两座14a fab建设。 intel买了两台asml的high na euv做技术储备吧,14A出来也根本没法量产,asml high na 24年2台 25年5台 26年10台,i家就算全部买下也只够一座fab,14A量产至少要等到工厂稳定盈利后,这就要28年甚至30年了 Cougar cove 18A coyote cove N2 griffin cove 16A 别指望14A了,ohio fab已经停了,陈立武基本暂停了18ap之后的研发了,真的真的没钱了,今年high na原本5台全要的,现在只要2台了,祈祷18A有客户去分摊研发和折旧成本吧,现在是收缩战线至少让ifs可以盈亏平衡
本世代在高速图形学和ai上的探索成果本质都是释放先进生产力 从而间接提高画质。(本世代探索、次世代铺开实装,不要杠)大家以后也不要对画面有过去世代交替般巨大跨越有期待了,但我们可以期待诸如优化、lod流变、音效、光效、场景快速转移等上手游玩体验全方位的细腻提升。 比如光追/Lumen这类光线折射解决方案,初衷是帮助开发者更快达到原本需要烘焙大量贴图才能获得的效果,不需要改动一次就要等待全部烘焙完成才能看到实际效果。 其副产物才是动态光追和游戏内动态全局光照——我把这俩分开的理由数毛社有讲,硬件光追和软件Lumen效果还是有差别的——做到了过去需要trick比如镜像建模、或者预设演出才能表现的画面效果。 Nanite以及其他技术型开发团队的多边形智能lod解决方案,将从业者从高学习成本低技术含量且无法节省的硬性工时中解救出来,不需要再一遍遍拓扑、分lod、雕琢法线,而是让算法自己解决画面内多边形数量,将更多精力放在设计与创作中。 然后,副产物才是画面外多边形被自动优化,更多算力可以用在摄像头捕捉到的地方上,从而提高了玩家实际可见的多边形精度。等于我有了一个智能夹子,无论你怎么移动,这个夹子永远躲在我后面,帮我夹住腰上的肥肉,让我看起来瘦瘦的 而以前我要时刻收腹+勒腰,你看我别扭我自己也很难受。 接着是说烂了的ssd。目前索软两家用amd的都不约而同地软硬两层面深度定制优化了ssd。硬指标顺序传输速度在其次,真正有用的是针对游戏特性对大量随机选中文件的快速调用解压,索尼更是特意设计了一枚芯片专门负责ssd文件的调用解压工作——原本这些都是cpu的活。 至于为什么ssd深度优化后真的可以给画面带来正面影响(我没说提升)。因为在本世代,除去照顾hhd速度的游戏隐藏读盘设计——钻缝、楼梯、电梯、直升机简报、开锁etc,还有一点就是类似pc的文件定位思路下,乱序调用效率很低(纸面数据往往放的都是顺序读取,类似田径和徒步越野/跑酷的区别),经常喂不饱gpu显存,只能靠升频来继续提高性能。 这一点在许多年代相对较远的游戏上体现很明显,它们首先在软件层面就有瓶颈,一味地升级硬件,其边际效应会急速降低乃至在某个水平停滞。 而针对性定制存储系统后,软件上的瓶颈首先就被打破了,ps5的存储系统从传统的路径/文件名变成了按id检索,对于一般工作用途而言是变麻烦了,但对于相对封闭的游戏软件而言却是极大利好。如果微软也选择了类似从根本上为游戏优化的方案,那么主机-PC的开发壁垒就很有可能再一次竖起。 而ssd速度优势在即将到来的世代可以得到充分挖掘,不再仅仅担任存储任务,在马克塞尼讲座中提到了索尼新的“克拉肯”压缩技术,可以让ssd极限达到解压后22gb/s,哪怕保守估计8gb/s,也能在一定程度上负担起部分虚拟缓存的职责——ps5 ssd的实际可用容量为825gb,剩下的内容想必不会全都是系统文件,而是有相当一部分可以另作他用的空间,比如延寿备份、或是将虚拟纹理放置其中,分担gpu工作压力。 这一点使用傲腾的壕们应该某种程度上享受到了,只可惜每个世代绝大多数开发者都是以主机为核心开发,不会专门为那一点点顶端用户专门提高。而到了次世代,近似性能只要使用成本控制到相对极为廉价的定制硬件就能达到,并包括在整机售价中 接着是nv和微软在这方面的动作,说到存储优化,老黄这边也没闲着。RTX IO这玩意儿本质上就是给GPU开了个VIP通道,让显卡能直接和NVMe SSD勾搭上。传统流程里数据得先让CPU解压再喂给显存,现在直接让显卡自己动手丰衣足食 这套路和索尼微软的定制方案异曲同工,但老黄鸡贼的地方在于把压缩算法玩出花。他们鼓捣的GDeflate标准,本质上就是给显存和SSD之间架了条高速公路。实测纹理加载能飙5倍速,加载时间直接砍到十分之一,这提升搁在需要频繁读图的开放世界游戏里,相当于把传统机械硬盘时代的"钻电梯缝"设计扫进历史垃圾堆。 不过代价嘛...RTX 30系起步的门槛摆在那儿,还得配PCIe4.0的NVMe固态。现在知道为啥去年矿潮时高端卡都被黄牛包圆了吧?这波硬件军备竞赛,钱包在哭泣的永远是我们玩家(手动狗头) undefined
大家觉得老黄的光追和CUDA AI真的有非常大的技术壁垒吗 大家在认知里的技术壁垒,是不是由于amd之前的rdna太菜了导致的 intel做显卡也就这两年,arc a的光追水平就已经暴打了amd rdna1 2 3整整三代,b580的光追更是同价位的6750gre 10g翻倍 200%的性能,xess1.3也有看齐接近dlss2.3的那个样子 就连做山寨机起家的mtk用的arm mali g925 gpu光追都有omm在起作用 反观amd做了这么多年显卡做了个干啥啥不行,光追AMD到现在RDNA4都还没怎么支持好硬件BVH,据传还要等到UDNA ai dlss这种在9000系FSR4出来之前长期就那个FSR1 2 3,连intel的xess1 2都比不过了,也难怪都不爱买a卡,steam显卡占用率那么低RX6000系被RTX30系,7000 40,RX9000系vs RTX50系甩出5~10倍差距,做的差所以没多少人买,所以没钱省研发经费,研发也抠抠搜搜,所以做的差,做的差所以没多少人买,纯纯恶性循环了 老黄是把CUDA做成了【AI时代的编程语言】。你看现在PyTorch/TensorFlow底层哪个不是默认CUDA加速?学术论文里的代码清一色`import torch.cuda`,连AMD自己开发ROCm都得搞CUDA兼容模式——这不就等于承认“在座的各位都是弟弟”吗?更绝的是老黄把CUDA和硬件深度耦合,从Tensor Core到RT Core再到现在的【 NVL72 GB300液冷Blackwell Ultra GPU LLM超算集群】,整个技术栈严丝合缝得跟俄罗斯套娃似的。开发者但凡沾点AI加速,闭着眼睛选CUDA生态就完事了,谁特么愿意给AMD写两套代码? 反观AMD,RDNA4都2025年了还在挤牙膏。说好的硬件BVH加速呢?FSR4拖到RX9000系才勉强上车,人家老黄DLSS3.5都玩出【帧生成+超分辨率+光线重建】三合一全家桶了。更离谱的是核显还死守RDNA3.5,UDNA架构等到猴年马月?这操作堪比拿着算盘跟量子计算机比速算。 老黄现在AI军备竞赛玩的是全栈通吃:从硬件到云端的降维打击。DGX Cloud直接把AI算力当水和电一样的基础资源卖卖,NIM微服务让本地RTX显卡变身AI工作站,连电力公司都得买他的显卡用ai来搞智能电网——用AI计算设计发电相关解决AI耗电,这逻辑闭环能把AMD工程师气到拍桌。再看AMD,ROCm生态连个稳定驱动都搞不定,开源社区贡献者还没老黄法务部人多,开发者用个PyTorch还得手动编译半天,这体验差距比马里亚纳海沟还深。 最杀人诛心的是【边际成本碾压】。老黄靠着CUDA生态躺着收税,A100/H100卖成硬通货,利润率直逼毒品生意。AMD呢?RDNA4的Navi48晶体管密度是牛逼,但光追性能被RTX 5070吊着打,AI算力连人家零头都不到。玩家又不是做慈善的,同样价格谁买张光追残疾卡? 说难听点,AMD显卡部门这些年纯属【战略级摆烂】。CPU那边Zen架构杀得英特尔丢盔弃甲,GPU这边却把“性价比”玩成遮羞布。GCN用了太久太离谱,RDNA1龟缩回传统光栅化旧时代渲染管线舍弃光追和ai节约面积成本的同时用新制程台积电7nm工艺打差异化竞争,RDNA2 3用7nm 5nm硬刚光追的30 40系结果不敌,RDNA4在nv dlss1都已经过去4~6年的情况下才拿出来对应的ai超分辨率上采样解决方案——合着次次都拿玩家当小白鼠呗?看看Steam硬件榜,RX7000 9000系占有率连RTX3060 4060笔记本和桌面的脚后跟都摸不到,这已经不是技术差距,是【用户信任崩盘】。
首页 1 2 3 4 5 下一页