Valley.Sun
jsntrgsyd
IntelSeniorEngineer→AzureSeniorPM1→IntelPrincipalManager(DEG_TA)
关注数: 59
粉丝数: 737
发帖数: 9,306
关注贴吧数: 39
村炮又开始了 胡说八道上瘾的石村号
有意思的对比 联想官方文档数据对比 JEITA-BAT3.0本地视频播放#X1E续航#
忽然明白为啥这么评价台积电的制程论文 对于参与学术报告的制程论文,台积电一向是营销对比内容多于技术参数,极少提供规格数据,通篇都是对比图而得实际工艺制品解析,IEEE会议更多是因为它是台积电才接收论文 而这样的对比图,在不同会议上又随意调整对比数值~甚至在同一会议不同论文中都有差异(比如A72标准核下N5 2-Fins对于N3e不同库)后面发现不能这样,开始更换成A78标准核对比图,再换A715标准核对比图 比如N3b的MMP 23nm是在RC图例里面找到的,IEDM2022对于N3b数据只有一个CPP 45nm! N3e的数据是N2论文中作为对比提供的 (同样的CPP 48nm)
同样没有同轴线对比下信号? 刚看了nova12pro拆解,居然取消同轴线了~好家伙 这下有测评出麒麟5G机型取消同轴线后信号对比么
这个很有意思啊 Techinsights的A17Pro分析 如果估算只有16.5B 那么密度是不是低的有点多啊~
根据TSMC季度财报看制程量产 TSMC的制程技术准备妥当与量产代工收益开始之间的时间差一般很短,但是也有例外N10 2016Q1-2017Q2,N3 2022年Q4-2023Q3 最励志的是16nm,16FF初代2013但废弃 、16FF+到2015Q3才HVM交付 、16FFC 2016Q1-HVM 、12FFC 2017Q2-HVM。
官方Zen4 vs Zen4c 如图所示
首台HighNA运输完成进入安装 2018年订购的首台5000,上个月21号(周四)发货,本月4号(周四)到达D1X,进入安装调试阶段!
赛博斗蛐蛐之外谈点东西 制程升级道路上的多快好省,但是计划赶不上变化 本着一切向钱看的原则,intel在12年规划了后续十年的制程大跃进,DUV用到初代10SF(不现实的高密度指标版),17/18年一代EUV介入(过渡≤2年)用于非关键层,转二代HighNA并在18个月内实现量产!并在17-23年内开发适用于后续7/5nm的新材料新技术! 多快好省,期间不大量采购0.33NA EUV,实现技术通用化,材料逐步升级,10nm节点高密度设计维持甚至降低成本以完成董事会要求的60%利润率,同时HighNA应用技术支持从10nm长节点用到5nm。 (这里的制程节点指的是标准节点,并非现在的商业宣传口径) 这一规划的前提是HighNA在20年底能顺利交付原型机,然而现实让intel 差点坑死自己(CEO背锅 20年12月解职),HighNA ASML17年初正式立项,到20年Q2宣告搞不定,延期2-4年,最快23年初最晚24年初交付原型机~这会儿intel想再批量购入0.33NA作为过渡期生产,已经太晚了,ASML的0.33NA量产机订单供不应求+疫情导致的交付延迟(最长30个月),哪儿来货批量交付给intel(2018年EUV intel只预订了3台)! 这样规划的出现,是因为06-12年间Intel在65/45/32/22nm的高歌猛进般顺利开发,以及Core架构奠定的十年稳健,董事会开始不懂事了,直接开始大跃进! 其实在14nm开发上,就有不顺利,虽然只延期了6个月,但已预示着后续高密度10nm的艰难,老板们坚定的要用DUV上超高密度的10nm,还顺便开掉了一批经验丰富的项目经理,换上了阿三~因为大家都说>100密度的DUV真干不了,降低到92 还能试着搞出来~ 台积电在其中很明智的选择了大量吃下 0.33NA EUV(70% 到现在150台的样子),7nm(N4)之前都能干,N3可以试着搞,只要有大客户捧着~
高通牛逼的 7系列 几年如一日的不变~真特么离谱了~778G到7G3
周末上点测试图 5900hx 6900hx 7940h可以调压 今天上个6900hx的 3.6Ghz功率就开始疯狂抬头,4.3Ghz基本上就是笔记本可用极限了,因为再强的风冷散热也没法把压到90℃下了~ 1.2-2.4/2.8 -3.2Ghz两段能效频率
现在龙芯粉这么嚣张么 笑 看图 我确实不懂 我是小白 但是我啥时候变飞腾粉了?我咋不知道 要是Apple A系列能选 我肯定选2/4Cluster 8C-ECore 笑
为啥单核→多核 唉 就这么回事吧
敢晒17成绩的飞腾 飞腾新品,也是不容易,21年4月被xx
一个时代怀念 Transmeta 2004年中推出的集成度十分之高的TM8620双核系统,在小小的基板上集成了ALi的南桥芯片1563S和ATI的显示芯片,基本上已经是一个完整的处理平台。而且背面还同时集成了系统内存! 富士通90nm的Efficeon new,1.6/1.8/2.0Ghz,1.6Ghz 7w、1.8Ghz 12W~2.0Ghz就要25w TDP! 后续还有65nm的样品,只是此时全美达已经没了~
紫光展锐的卫星通讯SoC 最近才完成实机测试的,7月20号时候预告过 紫光展锐参与完成了国内首次 5G NTN 手机直连卫星外场验证,通过采用 vivo 高集成度射频天线方案和内嵌紫光展锐V8821芯片的 vivo卫 星通信终端样机,实现在天通卫星环境下 5G NTN 手机直连卫星空口上下行连接,并实现 vivo 手机之间的互通,用卫星通信成功进行收发文字消息的业务演示,功能、性能符合预期。
ARM 一言难尽 A510这双核簇设计理念还行, 但是为啥不给上OoO呢? 共享FPU 2*128 可以128/128*2/128+128 双3宽 如果再支持OoO,那能效还是可以看的
都是鬼才设计 LPCAMM BGA LP5不便升级,SO-DIMM面积太大 高度也超,那就来一个LPCAMM~ 128bit LPCAMM面积比SO-DIMM少60% 32bit 8/12/16/18/24GB颗粒搭配,容量可以32GB起步
A17 ECore还是很顶的 gb6 913/2967 频率均值2105Mhz 省电模式只用ECore也算够了
热密度是怎么求出来的,有啥公式? rt 小白不懂 求大佬们解释解释
乐呵 谈能效 哪家制程CPU核ISO对比在2Ghz及以下频段谈能效xxx啊? 有本事0.65V跑2.6Ghz再谈啊~ 又不是GPU 600Mhz就要谈能效的 另外这种Fab Paper少当真~ 毕竟修修图图一乐也没人查你学术造假~
忽然想起去年一个预测 有人要我猜下M3正常迭代频率多高~ 尼吗 这给延迟后上的A17P用上了?
还有人对台积电论文有信心有期待么 台积电的paper发的是很漂亮的~电压频率功率对应数据美的啊(图修的好)~ 但是实际产品,我是没找到对的上paper
高通新中端 7sGen2 7sGen2 三星4nm 2.4Ghz*4+1.95米Ghz*4 这是准备778G+/780g/782G/7G1/7sG2同台竞技 一个性能水平 #红米Note13Pro#
旧闻专贴 旧一观 旧闻专贴 旧一观
一些有限的数据 一楼喂百度 防吞
Amd 最清晰的图是7540U 一楼喂度娘
人生无常,大肠包小肠 台湾《电子时报》5月22日消息,半导体设备业者表示,2023全年台积电3nm产能仍以N3(N3B)为主,整体良率近75%。由于台积电3nm在PPA表现下与4nm差异不大,且3nm挂牌价涨至2万美元,只有苹果有8折优惠,多家客户已修正制程规划,调整投片与订单,包括拉长4/5nm世代周期,放缓N3E、N3P采用进度,等待2nm GAA制程世代再重押。
ON PKG封装技术 不是你想的那么新时代 看图吧
真逗 笑了!脑补无敌 AMD规划推动JEDEC的MRDIMM DDR5规范,某人直接脑补成12800-17600成品发布并出货了! 估计是没看到下面那个年份数值! 根据intel/amd产品路线,JEDEC MRDIMM Gen1最大可能在 2024 年上市! 这是JEDEC规范的MR-DIMM,intel的叫MCR-DIMM,AMD叫HB-DIMM!
从头开始讲Loadline Intel CPU在出厂时就内置了一张倍频-VID电压表,它定义了CPU在使用某个倍频时,向VRM(主板供电模块)索取的VID电压值。 供电模块Vout 到CPU Die的路径的铜箔是有电阻的,会导致电压会下降,而且每个主板的制造都是有误差的,导致这个实际阻值是不同的,为了所有主板都有统一的供电行为方式,Intel定义了一个虚拟电阻,让不同的主板的VRM都统一的根据该虚拟电阻的阻值来控制掉压行为。这就是AC LL。默认为1.1mΩ DC LL是个什东西呢?CPU需要计算功率Psys并提供出去,直接用ACLL增压后的电压是不对的,这是预先补偿电压值,那么DC LL就是要把ACLL升压后的电压模拟降压,得到一个更接近于真实电压的值,用于计算功率!AIDA64的传感器 电压项目中的 CPU VID 就是这个计算后的系统电压值。DC LL默认也是1.1mΩ VRM LL 或者叫LLC (CPU Load-Line Calibration)俗称防掉压,因为CPU无法完全正确预测负载需要的电流,所以向VRM申请电压也是有偏差的。 LLC就是用来矫正的系数。intel默认值还是1.1mΩ 举例:CPU想向VRM请求1.10v的电压,CPU会根据任务负载要求提前预测自己需要的电流,假设为100A,那么向VRM发送的sVID电压实际就是1100mV+100A*1.1mΩ(ACLL)=1210mV,然后1210mv的实际VID电压经过VRM Loadline掉压后,刚好拿到1.10v的die sense电压。 接下来名词解释: “裸VID”,即CPU内置的原始电压表数值,是数字信号; “实际VID”,是“裸VID”被CPU使用其预测的电流和ACLL阻值,进行掉压补偿/升压后的VID, 是发送给主板VRM的实际VID数字信号 “实际VID” = “裸VID” + CPU预测的电流 * ACLL; “实际VID”被发送给主板VRM,主板VRM将其结合VRMLL输出实际电压,即die sense电压 die sense电压不是数字信号,是一个实际的电压值, die sense电压 = “实际VID” - 实际电流 * VRMLL; CPU无法感知die sense这种真实电压,但可以感知实际电流。它利用DCLL计算来近似die sense电压值,即systemVID电压,也是数字信号 sVID电压 = “实际VID” - 实际电流 * DCLL CPUz里的电压叫Vcore,来源是主板上的SIO芯片,不同主板的SIO芯片会选择监测不同的电压点,这些点与CPU的距离不同,主流就是die sense、vcc sense、socket sense这三种,用的是哪种需要看主板型号。与CPU核心的距离从近到远为die、vcc、socket,离cpu越远,阻值越大,因此探测到的电压数值上,die < vcc <socket。 比如在socket sense探测到的电压是1.2v,电流从此处长途跋涉走过一大段电阻来到CPU内部,电压已经掉的只剩下1.15v了,那die sense探测到的就是1.15v。VRMLL的控制对象是die sense,所以socket sense只是主板供电为了得到指定die sense值的一个电压中间值。
关于换大容量电池与充放电设计 有人追着我问IC型号 我就纳闷了,问型号干嘛,电池3串还是4串这是笔记本充放电设计技术标准决定好了的,跟IC型号有啥关系? 充放电常规参数: 宽输入范围 3.5v至24v, 最高耐压可达29v (以上数据根据厂家节约组件成本可进一步压缩范围) 正向充电或反向放电时支持降压模式、升压模式和升降压模式 管理1至4节电池充电, 支持预充电、恒流充电、恒压充电。 支持宽输出范围3v至20.8v 兼容intel IMVP8/9规范 笔记本板上电压主要为12V/5V 根据性能需求区分 Adapter接入下叫高供电(电压高电流大)支持全功率运转,Battery供电(电压低电流低)叫低供电建议低功率节能运转,笔记本电池几乎不会使用动力电芯,放电倍率0.5-1~这也是为什么大容量电池许可功率更高的原因 目前笔记本上分传统并联充放电模式和NVDC模式 先谈传统模式也就是系统直接在电池端取电 两个缺点:1 首先是电池电量完全放光的时候,连接适配器后,需要先对电池充电,电池电压达到最低工作电压后,才可以开机;2 输入电流同时为系统和电池供电,开机下充电影响电池的充电速度,并且在开机下会频繁的对电池充放电,加快电池老化,降低电池寿命 所以商务机厂家很早就在EC增加充放电阈值,比如ThinkPad! 再谈 NVDC模式,电池端和系统负载之间新增BATFET,在电池电量归零适配器接入时,以线性充电模式涓流为电池充电。就是同步升降压输出一个比较低的电压为系统供电,该系统供电电压通过BATFET为电池进行线性充电。再电池电压上升后,BATFET短接电池和系统供电端,转为电池正常充电。电池充到指定阈值后,关断BATFET,切断电池和系统的连接,只由适配器为系统供电,延长电池寿命。
不同LCD世代产线对不同比例屏切割率 又是老生常谈的16:10 16:9的争论 自己看图 这是2007年开始的8.5代同样切割14寸 16:9 与16:10的切割率最开始大家玩的是4.5代产线切割15寸4:3屏
多说一个4050lap 35wTGP 可以期待下,35w的4050lap轻薄机 TS大概5500-5600 配上35-40w的CPU 散热压力小,1080p下性能基本满足了
老黄牛逼 精湛 RT
不愧是三星半导体
RPL-HX一言难尽的电压设计 这个默认电压曲线一言难尽 直接下移150mV吧
BF16可不是FP16半精度 有些人傻傻分不清 BF16不是半精度浮点数 要分清FP32/FP16/BF16,Brain Float16是FP32尾数截断! BF16表示为: 1个符号位+ 8个指数位+7个尾数位(总共16位)(FP32是23尾数位)。 半精度浮点数指的是FP16: 1个符号位+5个指数位+10个尾数位(共16位)。
遇到个大佬要指导apple设计SoC 大佬说apple的CPU晶体管密度太高导致热密度高,所以要降低密度,把面积放大个30%! 还说什么AMX没卵用的大单元又占面积! 不敢说不敢说了!告辞 你是真大佬!
棒棒的 哈哈 棒棒的 哈哈
展览一下~恩 就这样
还记得这个帖子么?
Turing架构有感 先吐个槽 老黄的WP的TuringSM示意图一定是临时工画了··漏了重要东西·· 还得再回头看前面的SM文字表述 图中的L0/ L1 指令缓存不见了 L0指令缓存是起于Volta SM 64SPs 四分组添加的 Turing去掉绝大部分FP64后缩减了一半LD/ST,砍掉了32K Shared $·· (Volta是128K分为L1 32K、 shared 96K,Turing是96K分为L1 32K 、Shared 64K) 修正后Turing SM其实老黄的官网仔细阅读每个页面可以收获很多的 比如这句话出处:http://tieba.baidu.com/mo/q/checkurl?url=https%3A%2F%2Fwww.nvidia.com%2Fzh-cn%2Fdata-center%2Ftensorcore%2F&urlrefer=c43f4d38bea75ccd07cc0c3131425b6d Volta白皮书机翻一下 FP32和ITE32操作的同时执行 与PascalGPU不能同时执行FP32和INT32指令不同,Volta GV100 SM包括单独的FP32和INT32核,允许在全吞吐量下同时执行FP32和INT32操作,同时增加指令发布吞吐量。对于核心FMA(Fused Multiply-Add)数学操作,依赖指令问题延迟也减少了,与Pascal上的六个周期相比,Volta上只需要四个时钟周期。 FP32 50%效率提升是从这儿出来的·· 从GV100发布以来,一年了,又过去六个月了··到现在才搞定开发工具的可用性··· 而到目前为止适应新架构的显卡驱动400系列 还没公发 GV100无论是Tesla还是Quadro版中 Tensor 几乎当电阻丝这么长时间·· 没记错NVlink的GV100也是16项供电吧·· 当然对于GV100本身的开发用途 没影响··· 为美国能源部 E级HPC开发的FP64性能核心 所以 1、Tensor的消费级应用接入才是性能巨大提升的新增长之路,而且效果会很显著 2、传统CUDA效率提升之路,到Volta的FP32/INT32独立调度,使得FP32在任何情况下度可以跑满峰值,而不是以前CUDA中FP32实际只能跑到峰值70%左右的尴尬点·· 3、RTCore是未来之光,目前性能够用的只有那个50万美元一台的RTXServer· · 即使按照8光线/像素来算,4K 近830万像素··再折算即30%面积像素投射量算也要1992万光线投射量/画面~ 如果遇上4k 风景类那几乎是100%面积需要光线投射···不敢相信 所以现在还是谈谈1080p这种207万像素的画面吧 所以老黄说一句Do not expect hundreds of rays cast per pixel in real-time. 目前单芯片才10Giga Rays/sec 看清楚是每秒··60fps是每秒60张画面···也就是0.167GR/p··· 还是靠Tensor AI脑补靠谱点···毕竟那么庞大的FP16/IN8专用算力··
嫌老黄卖的的贵的 是你们不懂 老黄就是个卖晶圆的~ 半导体工艺到28/16nm是性价比爬升段,而后的就只剩下晶体管密度提升与成本暴涨 就剩下贵 贵 贵 再看看GPU的面积~
新产品到来之前来点猜图小游戏 看核心图 猜型号 镇楼图
石村说 这一切都是PS的图 石村不承认自己说过的,看到的截图都是PS的
这变得比X还快啊 这叫有情报来源··呵呵··呵呵··
军盲就是军盲 原来M1加兰德是栓动步枪··长见识了··
村炮展示3 **的K1 就想问 denver1的K1还好嘛··性能到底是多少呢·有多少设备采用了啊···
村炮展示2 maxwell 直接上图
1
下一页