米线山️之父 路西法not
关注数: 142 粉丝数: 228 发帖数: 13,720 关注贴吧数: 554
驱动之家现在就这么A炮了,Intel为啥要羡慕AMD? 驱动之家现在就这么A炮了,Intel为啥要羡慕AMD Zen 7支持AVX10? AMD Zen系列的AVX一直相对Intel都是残血 的,Zen 7的AVX10可还真不见得在那个时 候能够满血,即便满血了Intel也不至于比 Diamond Rapids更加缩水AVX10啊。 而且啥叫Intel没法完整支持,AMD全盘掌握。Intel消费级是没法支持,但是AMD的AVX512 是残血,也不是全盘掌握。网上cpu 新闻评论区大都是A炮在说话。就和现实中各种粉一样,人不多但噪门大,唉,apro。apro怎么这么坏啊 不得不说,微软那个杀千刀的强制认证45tops npu和大小核还有amx已经成为pc个人电脑生态的最大障碍了小核阉割浮点单元导致不支持超宽那超宽编译出来的软件是实打实跑不上去,还有npu的活本来交给amx和sme2或avx10.2作可以一次编译处处执行,加个npu又带来一堆兼容性问题 amx和npu这俩都是逆天,矩阵乘法这玩意就应该老老实实和gpu放在一起intel非得放在cpu里。 主要是sse到avx一直以来指令和向量长度强绑定,再加上avx512极端的碎片化让指令数量直接起飞小核趁着avx512还没普及,保守地退回avx2本来挺好,结果某些逆天架构还想让avx3死灰复燃。 指令数激增主要是因为添加了mask,导致出现了多个版本,甚至位运算这种宽度无关的也要每个宽度做一个。但后续apx的寄存器翻倍也会用到evex,支持avx512也就是顺水推舟的事了,avx10以后碎片化也会回归正常。 小核之前不肯加是不愿意堆alu宽度,而不是真的觉得avx512本身多糟粕想抛掉。而且消费级当时是还没普及,专业领域已经用上了(托phi的福),后续大核隐退,atom线不支持也得支持的。当年那b牙膏厂的核显是拿atom核作的,为了简单粗暴的把GPU计算使用的各种精度移植上去avx-3把以前的simd全部重新复刻了一遍,这个AMD好像没参与吧,avx512一开始为了Larrabee,后来转成Phi,然后才是core的xeon。虽然小众但毕竟业界有人在用了,后续amd趁着ryzen的占有率,跟进avx512,反而把intel后路断了……然后牙膏核显转xe了把这玩意留下来了,这玩意和隔壁sve一起并列为GPU支持CPU ISA留下的两大毒瘤遗产
如何看待 PS6 计划于 2027 年秋季正式发售? 据tweaktown报道,业内知名消息人士“摩尔定律已死(Moore's Law is Dead,简称MLID)”近日爆料了索尼下一代主机PS6的完整规格。其核心一颗AMD新定制的“Orion”APU,采用台积电3nm工艺制造。内部配置为7-8个Zen 6c + Zen 6 LP核心(总计9-10核,具体取决于是否屏蔽部分核心),并搭载最高40GB GDDR7显存,速率为32Gbps,通过160-bit显存总线运行。 在GPU方面,这颗AMD Orion APU配备52-54个RDNA 5 CU,频率在2.6GHz~3.0GHz之间,并有10MB L2缓存(性能约34-40 TFLOPs)。MLID指出,PS6芯片中的RDNA 5 GPU被划分为3个Shader Engine,每个引擎包含9个Workgroup,总计27个Workgroup。 MLID表示,PS6计划于2027年中进入量产,并在2027年秋季正式发售。 MLID称,比起PS5,PS6在光栅化性能上会有2.5-3倍的提升,而在光线追踪性能上则会有6-12倍的飞跃。他在视频中举例:一位YouTuber最近在PS5上测试了《心灵杀手2》的性能,关闭路径追踪时帧率大约在30FPS左右;但一旦开启路径追踪,帧率就会掉到几乎不可玩的10FPS。如果PS6的RT性能真能比PS5提升6-12倍,那么在相同条件下,帧率将达到60-120FPS,性能飞跃相当惊人。换句话说,PS6=RTX 5090级别的光追性能。 一旦再结合FSR4或PSSR 2升频技术,PS6的光栅化性能预计会比PS5提升2.5-3倍,而光追性能则有望提升6-12倍。在应用这些技术后,MLID预计PS6的整体表现将比PS5快6-12倍。 MLID还补充说明称,文档明确指出LP核心专用于操作系统,可释放20%CPU性能。索尼可能根据2027年的内存价格来选择30GB或40GB RAM。 但是需要指出的是,以上信息并未得到官方确认,请大家理性看待。 为什么ps6的光栅化性能才只有ps5的2.5-3倍?因为摩尔规律是快到头了 ps4真实28nm ps4pro是相当于真实16nm ps5是相当于真实10nm(台积电n7≈intel 10nm) ps5pro相当于真实8nm ps6才相当于真实7nm 直接看图3就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平 ps5大家以为7nm 6nm实际上是真实10nm和ps6用的国际先进台积电n3大家以为是3纳米,实际上是真实7nm,差距并没有想象中的那么大嘛,并不是7nm vs 3nm,而是10nm vs 7nm 大家都被搞混淆了,海外国际先进制程厂商对外宣传的宣传节点全是虚标注水的,全是营销需要
如何看待 PS6 计划于 2027 年秋季正式发售? 据tweaktown报道,业内知名消息人士“摩尔定律已死(Moore's Law is Dead,简称MLID)”近日爆料了索尼下一代主机PS6的完整规格。其核心一颗AMD新定制的“Orion”APU,采用台积电3nm工艺制造。内部配置为7-8个Zen 6c + Zen 6 LP核心(总计9-10核,具体取决于是否屏蔽部分核心),并搭载最高40GB GDDR7显存,速率为32Gbps,通过160-bit显存总线运行。 在GPU方面,这颗AMD Orion APU配备52-54个RDNA 5 CU,频率在2.6GHz~3.0GHz之间,并有10MB L2缓存(性能约34-40 TFLOPs)。MLID指出,PS6芯片中的RDNA 5 GPU被划分为3个Shader Engine,每个引擎包含9个Workgroup,总计27个Workgroup。 MLID表示,PS6计划于2027年中进入量产,并在2027年秋季正式发售。 MLID称,比起PS5,PS6在光栅化性能上会有2.5-3倍的提升,而在光线追踪性能上则会有6-12倍的飞跃。他在视频中举例:一位YouTuber最近在PS5上测试了《心灵杀手2》的性能,关闭路径追踪时帧率大约在30FPS左右;但一旦开启路径追踪,帧率就会掉到几乎不可玩的10FPS。如果PS6的RT性能真能比PS5提升6-12倍,那么在相同条件下,帧率将达到60-120FPS,性能飞跃相当惊人。换句话说,PS6=RTX 5090级别的光追性能。 一旦再结合FSR4或PSSR 2升频技术,PS6的光栅化性能预计会比PS5提升2.5-3倍,而光追性能则有望提升6-12倍。在应用这些技术后,MLID预计PS6的整体表现将比PS5快6-12倍。 MLID还补充说明称,文档明确指出LP核心专用于操作系统,可释放20%CPU性能。索尼可能根据2027年的内存价格来选择30GB或40GB RAM。 但是需要指出的是,以上信息并未得到官方确认,请大家理性看待。 为什么ps6的光栅化性能才只有ps5的2.5-3倍?因为摩尔规律是快到头了 ps4真实28nm ps4pro是相当于真实16nm ps5是相当于真实10nm(台积电n7≈intel 10nm) ps5pro相当于真实8nm ps6才相当于真实7nm 直接看图3就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平 ps5大家以为7nm 6nm实际上是真实10nm和ps6用的国际先进台积电n3大家以为是3纳米,实际上是真实7nm,差距并没有想象中的那么大嘛,并不是7nm vs 3nm,而是10nm vs 7nm 大家都被搞混淆了,海外国际先进制程厂商对外宣传的宣传节点全是虚标注水的,全是营销需要
【科普】4090和5090并不是真实4或5nm,只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平 国产工艺n+2大家以为7nm实际上是真实10nm和国际先进海外台积电n2 大家以为是两纳米,实际上是真实6nm,差距并没有想象中的那么大嘛,并不是7nm vs 2nm,而是10nm vs 6nm 大家都被搞混淆了,海外国际先进制程厂商对外宣传的宣传节点全是虚标注水的,全是营销需要
【科普】4090和5090其实并不是4或5nm,只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平 国产工艺n+2大家以为7nm实际上是真实10nm和国际先进海外台积电n2 大家以为是两纳米,实际上是真实6nm,差距并没有想象中的那么大嘛,并不是7nm vs 2nm,而是10nm vs 6nm 大家都被搞混淆了,海外国际先进制程厂商对外宣传的宣传节点全是虚标注水的,全是营销需要
【科普】4090和5090其实并不是4或5nm,只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平 国产工艺n+2大家以为7nm实际上是真实10nm和国际先进海外台积电n2 大家以为是两纳米,实际上是真实6nm,差距并没有想象中的那么大嘛,并不是7nm vs 2nm,而是10nm vs 6nm 大家都被搞混淆了,海外厂商全是虚标注水的
【科普】4090和5090笔记本并不是4或5nm只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平
【科普】983和9070其实并不是4nm,只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平
【科普】4090和5090其实并不是4或5nm,只有8.5nm 没想到都2025了关于制程工艺真实是多少纳米还能再吵起来了,吵了有将近100楼,感觉不如b乎大神一张图……很早之前不是贴吧就有一句话吗?叫做无图言雕,不就是这个意思 直接看图3不就行了 节点intel 14A,14AE,号称1.4nm,对应的标准化节点也就相当于真实5.7nm,intel(画的PPT)最多也就这个水平了 节点台积电n3家族,对外宣传号称3nm,实际真实看【标准化】就行,相当于真实6.6~6.8nm 为什么大家都说14nm以下全是假的,只有英特尔才是真的? 因为英特尔10SF确实相当于真实【标准化】10nm 英特尔14nm也是真的【标准化】的 为什么说英特尔才标准化,其他都会虚标呢?因为英特尔自家工厂啊 这就像为什么安卓手机跑分,会想尽办法超频冲刺提高甚至各种黑白名单一样,苹果对此不屑一顾……苹果在国内的竞品只有华为,国际上只有三星,而这些都是不看重参数,不看重跑分的,用户人群基本就是闭着眼睛买苹果华为 为什么还有人22nm以下都是假的会这么说? 因为台积电真实的平面20nm做出来过,就是大名鼎鼎的台漏电n20,漏电十分夸张,让火龙810单核就能5瓦,4核就能20瓦,让NV老黄闻风丧胆,老黄,桌面端和笔记本的显卡直接跳过n20,要么780 980 28nm用的是,要么1060 16nm,2060 12nm用的是,老黄直接跳过台漏电n20,就是因为漏电量大管饱太夸张了 if世界线 假如英特尔和台积电还有三星只讲实话? 那11代酷睿桌面继续14nm,笔记本继续10nm 最新ultra200s用的台积电n3b 小米自研3nm SoC玄戒o1的n3e也都不叫3nm,要叫台积电真实6.6 6.7nm 老黄4090 5090显卡用的定制4N工艺也就是n5,这个是台积电真实8.5nm,太落后了……技术发展的停滞正在显现,摩尔规律果然失效了 3090用的三星8lpp也不是真的8nm,是真实12.8nm,果然intel 10nm > 三星8nm,这就是不含水分,不虚标的含金量 麒麟9000s 9010 9020华为旗舰手机用的n+2工艺也不是等效7nm,其实是真实10nm,国产工艺目前还只是真实10nm的水平
华为开源全新技术显存占用削减70% 5060当5090用 华为开源SINQ AI技术:显存占用削减70%, 5060能当5090用,RTX4090能顶A100 10 月 6 日消息,华为苏黎世计算系统实验室于 9 月 26 日发布全新开源量化(Quantization)技术 SINQ(Sinkhorn 归一化量化),旨在大幅降低大语言模型(LLM)的显存需求与运行成本。 > 这项技术无需复杂的校准过程,可直接集成至现有工作流,并且其代码已通过 Apache 2.0 许可证在 GitHub 和 Hugging Face 上开放,允许任何组织免费使用、修改和商业化部署。 > SINQ 的核心优势在于其卓越的压缩性能。根据测试,该技术能将不同规模模型的显存占用普遍削减 60% 至 70%。这意味着,过去需要超过 60GB 显存才能运行的大型模型,现在仅需约 20GB 的环境即可部署。 > 此前需要企业级 GPU(如英伟达 A100 80GB 或 H100)计算的任务,现在仅用一张售价约 1600 美元的消费级显卡(如英伟达 RTX 4090)便可胜任。对于云端用户而言,每小时的算力成本也随之锐减。 > 该技术通过两大创新实现了性能突破。首先,SINQ 采用“双轴采样”策略,替代了传统的单尺度因子量化,通过分别为矩阵的行和列设置独立的缩放向量,更灵活地分散量化误差,有效抑制了异常值的影响。 > 在性能评估中,SINQ 的表现全面超越了多种主流的免校准量化方法(如 RTN、HQQ)。在处理 Qwen3、LLaMA 等多种主流模型时,SINQ 在 WikiText2 等标准测试集上显著降低了模型的困惑度(Perplexity),其性能表现接近甚至达到了需要数据校准的方案水平。 > 此外,SINQ 的量化速度极快,比 HQQ 快约 2 倍,更是比 AWQ 快 30 倍以上,充分满足了研究与生产环境中对效率的严苛要求。 > 注:量化一种模型压缩技术,通过降低模型内部数据的精度来减小其体积和显存占用。好比将一张高精度的照片(如浮点数)转换为一张文件更小、但肉眼看差别不大的普通照片(如整数),从而让模型运行得更快、更省资源。 > 困惑度(Perplexity)示评估语言模型性能的常用指标。它衡量的是模型对于一段新文本的“惊讶”或“不确定”程度。困惑度越低,表示模型对文本的预测越准确,语言能力越强。
1 下一页