ultra3134
ultra3134
关注数: 19
粉丝数: 231
发帖数: 18,869
关注贴吧数: 530
意料之中,i5-8400 R23 被 Apple M1 爆锤了 跑了两次。 第一次:单线程 1022 多线程 4966 倍率 4.86 x 第二次:单线程 1043 多线程 4977 倍率 4.77 x 我这台 N970TD 的散热似乎出问题了,CPU 出风口风量减小了不少。每天都要用电脑,没法送修,毕竟现在太卷了。 跑第一次单线程和多线程的时候也忘记截图了(急着看完结果以后下楼到食堂吃晚饭)。总之凑合一下吧。 第一次测试,单线程,CPU 核心最高温度 80 ℃(风扇未全速,默认模式),没有达到降频线 85 ℃,不降频。 多线程,最低降到 3.1 GHz(风扇全速)。 第二次测试, 第一次测试,单线程,CPU 核心最高温度 76 ℃(风扇全速),没有达到降频线 85 ℃,不降频。CPU Package 功耗最大约 52.1 W。 多线程,最低降到 3.0 GHz(风扇全速)。CPU Package 功耗最大约 64.8 W。
老黄的大核弹GA100来了,540亿晶体管,TSMC 7nm,400W功耗 纯 CUDA 核心提供 19.5 T 单精度和 9.7 T 双精度,Tensor Core 支持 FP64,而且据说 CUDA 和 Tensor Core 可以同时进行 FP64 运算。当然,Tensor Core 主要负责科研中常用的矩阵的加速。支持多种 AI 中常用的浮点格式的 Tensor Core。针对稀疏运算优化,性能可翻番。BERT 模型训练和推理性能最大分别达到 V100 的 6X 和 7X。(MIG:多实例 GPU,主要用于 GRID 等虚拟化环境)在分子动力学、物理、工程、地理科学等基础科研和工程领域,常用软件的性能打到 1.5X 至 2.1X 不等。完整 GA100 共有 128 组 SM,8192 sp。A100 仅仅开启了 108 组 SM,即 6912 sp。HBM 也屏蔽了一颗芯片,显存容量40 GB,位宽 5120-bit,带宽 1.6 TB/s。为低精度运算提供支持,二值运算 INT1 的性能高达单卡 5 PFLOPS。NVLINK 3.0,双向带宽单芯片 600 GB/s,DGX A100 共 6 颗,总带宽 4.8TB/s。上一代 DGX 中,一个 NVLINK 的功耗似乎要达到 100 W。DGX-2 拥有 16 块 Tesla V100 和 12 颗 NVLINK 芯片,总功耗为 10 kW。DGX A100 的总功耗约 6.5 kW,Pascal 时代的 DGX-1 总功耗 4 kW(8 × Tesla P100)。DGX A100,重达 143 kg,包含 1 TB RAM,采用 AMD Rome 7742 CPU,共 128 个核心。DGX A100 为操作系统专门预留了 2 × 1.92 TB 的 NVMe 硬盘,而剩余 4 × 3.84 TB 硬盘用于存储。
Orin,17B晶体管,200T INT8,200GB/s内存带宽,8K30 / 4K60,AS 17B晶体管,200T INT8,200GB/s内存带宽,8K30 Decoding / 4K60 Encoding,ASIL-D NVIDIA发布DRIVE AGX Orin:L5级自动驾驶 12核CPU/7倍性能2019-12-18 12:22:31 出处:快科技 作者:宪瑞 编辑:宪瑞 人气: 1800 次 评论(5) 英伟达 自动驾驶 12月18日,在苏州举行的GTC China 2019大会上,NVIDIA CEO黄仁勋宣布了新一代用于自动驾驶和机器人的高度先进的软件定义平台——NVIDIA DRIVE AGX Orin,集成170亿晶体管,采用全新的NVIDIA GPU及12核ARM CPU,性能是上代Xavier的7倍。 作为NVIDIA新一代系统级芯片,Orin芯片由170亿个晶体管组成,凝聚着NVIDIA团队为期四年的努力。Orin系统级芯片集成了NVIDIA新一代GPU架构和Arm Hercules CPU(注:这是ARM的5nm高性能CPU)内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,几乎是NVIDIA上一代Xavier系统级芯片性能的7倍。 Orin可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。 作为一个软件定义平台,DRIVE AGX Orin能够赋力从L2级到L5级完全自动驾驶汽车开发的兼容架构平台,助力OEM开发大型复杂的软件产品系列。 由于Orin和Xavier均可通过开放的CUDA、TensorRT API及各类库进行编程,因此开发者能够在一次性投资后使用跨多代的产品。 NVIDIA创始人兼首席执行官黄仁勋表示:“打造安全的自动驾驶汽车,也许是当今社会所面临的最大计算挑战。实现自动驾驶汽车所需的投入呈指数级增长,面对复杂的开发任务,像Orin这样的可扩展、可编程、软件定义的AI平台不可或缺。” 根据NVIDIA的信息,DRIVE AGX Orin芯片将于2022年正式量产。原文:news.mydrivers.com/1/662/662857.htm 看图,2×Orin + 2×GPU是2000T,750W;2×Orin是400T,130W。据此计算出:新GPU一张有800T的INT8,310W
Orin, 17B晶体管,200T INT8,200GB/s内存带宽,8K30 / 4K60 17B晶体管,200T INT8,200GB/s内存带宽,8K30 Decoding / 4K60 Encoding,ASIL-D NVIDIA发布DRIVE AGX Orin:L5级自动驾驶 12核CPU/7倍性能2019-12-18 12:22:31 出处:快科技 作者:宪瑞 编辑:宪瑞 人气: 1800 次 评论(5) 英伟达 自动驾驶 12月18日,在苏州举行的GTC China 2019大会上,NVIDIA CEO黄仁勋宣布了新一代用于自动驾驶和机器人的高度先进的软件定义平台——NVIDIA DRIVE AGX Orin,集成170亿晶体管,采用全新的NVIDIA GPU及12核ARM CPU,性能是上代Xavier的7倍。 作为NVIDIA新一代系统级芯片,Orin芯片由170亿个晶体管组成,凝聚着NVIDIA团队为期四年的努力。Orin系统级芯片集成了NVIDIA新一代GPU架构和Arm Hercules CPU(注:这是ARM的5nm高性能CPU)内核以及全新深度学习和计算机视觉加速器,每秒可运行200万亿次计算,几乎是NVIDIA上一代Xavier系统级芯片性能的7倍。 Orin可处理在自动驾驶汽车和机器人中同时运行的大量应用和深度神经网络,并且达到了ISO 26262 ASIL-D等系统安全标准。 作为一个软件定义平台,DRIVE AGX Orin能够赋力从L2级到L5级完全自动驾驶汽车开发的兼容架构平台,助力OEM开发大型复杂的软件产品系列。 由于Orin和Xavier均可通过开放的CUDA、TensorRT API及各类库进行编程,因此开发者能够在一次性投资后使用跨多代的产品。 NVIDIA创始人兼首席执行官黄仁勋表示:“打造安全的自动驾驶汽车,也许是当今社会所面临的最大计算挑战。实现自动驾驶汽车所需的投入呈指数级增长,面对复杂的开发任务,像Orin这样的可扩展、可编程、软件定义的AI平台不可或缺。” 根据NVIDIA的信息,DRIVE AGX Orin芯片将于2022年正式量产。原文:news.mydrivers.com/1/662/662857.htm 看图,2×Orin + 2×GPU是2000T,750W;2×Orin是400T,130W。据此计算出:新GPU一张有800T的INT8,310W
Chaos Group的V-RAY测试 可以看出新卡在渲染方面提升不错
Orin好像有点** 图片来源:Nvidia Investor Day(2018年3月27日) Pegasus(AGX 嵌入式AI超算最大规模),320TOPS张量,25T单精度,16G光线,需要用到4个芯片(2个Xavier加2个下一代GPU),标称功耗500W(这个数值是去年GTC EUROPE说的),2018Q3出样,2019Q3量产。 下一代DRIVE Orin平台,用2个芯片即可实现和Pegasus一样的性能。但是目前NVIDIA并未透露任何Orin芯片及其相关平台的消息。不过Pegasus的量产时间目前预计为2019年第三季度,继任的平台应该也是2019年慢慢透露,2020年或者更迟量产了。
NVIDIA AGX 嵌入式AI超算 最高320T张量 最大25T单精度 最高16G光线 功耗15W起步
NVIDIA AGX 嵌入式AI超算!!!! 最高320T张量 最大25T单精度 最高16G光线 功耗15W起步
Turing的两个新技术 Turing架构还搭载一系列全新渲染技术,可提升VR的性能和视觉质量。 可变速率着色(VRS, Variable Rate Shading) 能够优化渲染。主要方法是在场景的细节区域中应用更多着色性能,并在拥有较少可感知细节的场景中限制性能。这可以降低场景外围区域(用户不太可能留意的区域,尤其是当与眼动追踪相结合时)的着色率,从而用于焦点渲染。 多视角渲染(Multi-View Rendering)能够支持提供超宽视场和斜面显示屏的下一代头显设备,这样用户就能看到一个无边框的虚拟世界。多视角渲染是Single Pass Stereo的下一代版本,可以将单个渲染通道的投影视角数量增加两倍,达到四个。这四个投影视角现在都独立于位置,并且能够沿任何轴转换。通过渲染四个投影视角,系统可以加速提供极宽视场的斜面(非共面)头显设备。 Via NVIDIA企业解决方案 微信公众号
D18Y-ES-A1?
Hot Chips 2018:自主机器SOC——Xavier的相关信息简单整理 http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fwww.anandtech.com%2Fshow%2F13245%2Fhot-chips-2018-nvidia-xavier-soc-live-blog&urlrefer=ffe2f3a05712949fd6dbd8eda6dbb0d8Xavier——为下一波自主机器设计 例如:私家车、出租车、卡车、快递机器人、飞行器、医疗器械、农业机械、仓储与分拣、生产设备
Quadro RTX来鸟,全新Turing架构,新增光线追踪专用核心RT Core 光追性能6倍于Pascal(虚幻4实时光线追踪引擎,DXR下)16 TFLOPS单精度浮点,16 TIPS INT32,8K实时HEVC编码,384-bit GDDR6 1750MHz(672 GB/s)6MB L2缓存,RT Core每秒运算100亿光线,Tensor Core提供125 TFLOPS的FP16或250 TOPS的INT8或500 TOPS的INT4,100 GB/s的NVLINK接口,8K DisplayPort,Virtual Link新接口(TYPE-C)。 NVENC已经支持图灵架构,新增8K HEVC编码。TURING全新核心(传代号为TU102),12nm FFN工艺,754 mm²,186亿晶体管(比GV100的晶体管密度低一点)三张新专业卡的规格。Quadro RTX 8000/6000/5000的定价分别为1万刀、6300刀、2300刀。 RTX 8000与RTX 6000的核心规格是一样的,4608个SP,576个Tensor Core,288个TMUs,ROPs可能是96或192个。 最主要的区别是显存容量分别是48GB和24GB。 RTX 5000拥有16GB显存,每秒运算60亿光线,3072个SP,384个Tensor Core,192个TMUs,ROPs可能是64个或128个。据说NVLINK桥接后仍然**作系统识别为单卡,但可以用软件检测出CUDA核心、显存容量、TMU等翻倍。RTX Server接替了Quadro VCA,每一台RTX服务器价格为125000刀,峰值功耗约为3200W,拥有8块RTX 8000,每两路用NVLINK连接。
Quadro VCA变成了RTX Server
【旧闻新说】不同Quadro显卡上的渲染器性能对比与一点猜测和展望 1、V-Ray2、RedShift3、Octane Render4、Maxwell Renderer5、Iray读图: 1、Nvidia的官方网站提供了上述渲染器的性能柱状图,可以看出在单路显卡的情况下,无论是台式工作站还是笔记本工作站,随着Quadro显卡的规格提升,性能的提升大都比较接近线性。 2、Quadro GV100比Quadro GP100的表现显著更好、Quadro GP100也比Quadro P6000的表现明显更好。 3、两路Quadro GP100/GV100相对单路带来的提升并没有达到接近两倍的水平。 可能的猜测(欢迎补充): 1、GP100的sp性能也高于GP102/104/106/107/108不少。 2、由以上结果及猜测1可以推出说法“GV100与GV102/104/106/107/108的架构存在较多不一致”并非不可能,也就是说我们可以期待TITAN V的游戏性能不是Volta架构能达到的上限。 展望: 1、在多卡互联的效率上,NVLink并不尽如人意。这点仍然有改进空间。 在DGX-2中,NVIDIA使用了12块NVSwitch芯片,尝试将DGX-2的16块Tesla V100(32GB)的多卡效率逼近100%。但是单个NVSwitch芯片的功耗可以达到100W,12块就有整整1200W,DGX-2的整机功耗也跃升到了标称10kW。 随着时代的发展,智慧城市、自动驾驶、机器学习、科学计算等等需要使用越来越大规模的计算机集群。我们希望更多的能源被用于执行计算任务和图形任务,而不是被互连消耗。因此Nvidia仍然需要下功夫令多卡互连的过程损耗尽可能少的电力。 2、这是GTX 1080的CUDA-Z评测结果:GV100/GP100 SM结构对比:GV100已经引入了专门的Int单元,规模与FP32单元相当。相信整数性能一定会有惊人的提高。后续架构也有望更进一步使整数性能增强。GV102/104/106/107会不会也引入整数单元呢?
光线追踪、VR会是GTX 1180显卡的重点?NVIDIA一大波新商标杀来 2018-8-6 14:20 | 作者:孟宪瑞 | 关键字:NVIDIA,RTX,商标,VR,光线追踪,GTX 1180 导读:NVIDIA最近就被发现了申请了多个新的注册商标,既有Quadro RTX、GeForce RTX这样的,也有VR、VR+、VR2、VR2+等VR相关的商标。考虑到本月底NVIDIA将推出新一代的GTX 11系列显卡,预计会应用许多与光线追踪、VR相关的技术。 ------------------------ 前段时间华为“抢注”R15、R17手机商标一事闹得沸沸扬扬,而商标注册这事对国外的公司来说稀松平常了,哪怕是没有任何实际产品的东西也会事先去申请商标,这样做是保护性注册,防止未来被别的公司抢注而导致纠纷。NVIDIA最近就被发现了申请了多个新的注册商标,既有Quadro RTX、GeForce RTX这样的,也有VR、VR+、VR2、VR2+等VR相关的商标。NVIDIA的GeForce显卡会使用GTX或者GT的商标,现在注册了新的商标——GeForce这边多了RTX,Quadro那边也是RTX,都是上个月才获得的新商标。从注册商标的范围来看,GeForce RTX主要涉及的是软件,它可以操作多媒体应用以生产多媒体内容,用于音频及视频。Quadro RTX这边涉及的领域就多了很多,涉及到用于图像渲染、建模及图形处理的API接口,还有人工智能、超算、电脑游戏、电脑硬件等等。 NVIDIA准备的GeForce RTX及Quadro RTX应该跟接下来的光线追踪技术有关,NVIDIA很可能会推出新一代的光线追踪软件或者API,帮助开发者更好地应用光线追踪技术。除了RTX商标之外,NVIDIA还注册了VR、VR+、VR2、VR2+等多个与VR相关的商标,涉及到领域包括软件、API、音频、视频、摄像头、充电底座等等。 虽然VR市场现在凉了,不过技术研发方面并没有停止,NVIDIA注册了这么多VR相关的商标,不知道未来会推出什么样的VR产品或者技术。 NVIDIA即将在本月底发布新一代显卡,不论核心代号是Volta伏打、Turing图灵还是Ampere安培,下一代显卡都会强化光线追踪技术,NVIDIA之前演示了很多与光线追踪相关的技术了,明确表示新一代GPU架构才会支持,也就是Volta架构才能更好地运用这些技术。 现在NVIDIA申请并获得了RTX及VR方面的商标,估计新一代显卡在这方面会有更多内容要揭开。
TYPE-C接口的VR开放式行业标准Virtual Link #VirtualLink# 全新开放式行业标准推出,助力下一代VR头显与PC及其他设备的便捷连接 VirtualLink仅需一个USB-C连接器,结合更高带宽,即能带来丰富的VR体验 加利福尼亚州圣克拉拉——太平洋时间2018年7月17日——由NVIDIA、Oculus、Valve、AMD和微软牵头的新的行业联盟今日推出VirtualLink™规格——这是一种开放式行业标准,使下一代VR头显无需线绳和连接器,就能够通过一个高带宽USB Type-C™连接器连接至PC和其他设备。 这种新的连接方式是USB-C的替代模式,它简化并加快了VR设置时间,避免了VR使用过程中的主要困难,让端口较少的小型设备也能为用户提供沉浸式VR体验,例如轻薄笔记本电脑。 为满足下一代VR的需求,VR头显需要提供更高的显示分辨率和高带宽摄像头,以用于跟踪和增强现实应用。VirtualLink与VR头显相连接,能同时提供可根据未来需求进行扩展的四个高速HBR3 DisplayPort通道、可支持高分辨率摄像头和传感器的USB3.1数据通道、以及最高27瓦的功率。 与其他连接方式不同,VirtualLink专为VR而设计。它针对延迟问题和带宽需求进行了优化,使头显和PC制造商能够提供下一代VR体验。 该联盟还宣布提前发布VirtualLink规格概述,以便有兴趣的公司能够在VirtualLink 1.0规格正式推出之前抢先了解详细信息。详情请访问http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fwww.VirtualLink.org&urlrefer=f3011790c324df1673ce2b87a4c7c05f。 业界领先企业纷纷表示支持 VR领域的领先企业纷纷表达了对这一新标准的热情欢迎。 NVIDIA游戏和VR总经理Jason Paul表示:“对现实的模拟需要十分出色的视觉保真度和处理能力。凭借一根高带宽线缆,VirtualLink能够充分发挥PC的潜力,打造叹为观止的VR体验。” Oculus Rift业务总监Nate Mitchell表示:“Oculus致力于让更多的人能够接触到VR。想要突破障碍、体验高性能的PC VR,统一的连接标准十分重要。随着VirtualLink这一专为VR设计的技术得以应用,我们期待整个VR行业更上一层楼。” Valve公司的Pierre-Loup Griffais表示:“我们希望看到这一合作最终能够增强用户体验,并为所有开发者和硬件制造商带来更多的可能性。” 微软混合现实业务总经理Scott Evans表示:“我们自始就参与到了VirtualLink的开发之中,且对于包括混合现实在内的新兴Windows体验,我们也大力支持相关行业标准的制定。” Via NVIDIA GPU计算 微博
简讯:传NVIDIA正对媒体发送科隆游戏展邀请函 videocardz.com/newz/nvidia-invites-press-for-gamescom 今年的科隆游戏展在8月21日(星期二)开始。VCZ收到消息,NVIDIA据说已经在为此次展会向媒体发送邀请。邀请函上的日期尚不明确。 邀请函上未提到新的GeForce系列或新的硬件。不过这次邀请许诺会有上手展示(hands-on presentation)。况且,如果这次行程不重要,没有谁会令这次欧洲行免费。
NVIDIA EVENTS CALENDAR ( 2017.12 ~ 2018.11 ) 2017年12月: 1、NIPS 2017(第31届神经信息处理系统大会) Booth # 109 December 4-9, 2017 Long Beach Convention Center (长滩会议中心) Long Beach, CA (加利福尼亚州长滩) 2、AI Summit, New York City(纽约AI峰会) December 5-6, 2017 Metropolitan West (西城) New York City, NY 3、HP Rock on December 11-14, 2017 Denver, CO (科罗拉多州丹佛市) ==== 2018年1月: 1、CES 2018 (2018消费电子展) January 7-12, 2018 Booth # 7019 Las Vegas Convention Center (拉斯维加斯会议中心) Las Vegas, NV (内华达州拉斯维加斯) 2、CES Citrix Summit (Cirtix峰会) January 9-11, 2018 Booth # 405 Anaheim Convention Center (阿纳海姆会议中心) Anaheim, CA 3、ReWork Deep Learning Summit 2018 (2018 Rework深度学习峰会) Booth #17 January 25-26, 2018 Hyatt Regency (凯悦酒店) San Francisco, CA ==== 2018年2月: 1、SOLIDWORKS World 2018 (2018 SolidWorks 全球用户大会) February 4-7, 2018 Booth # 601 Los Angeles Convention Center (洛杉矶会展中心) Los Angeles, CA ==== 2018年3月: 1、GDC 2018(2018 游戏开发者大会) March 19-23, 2018 Booth #223 Moscone Center (莫司康展览中心) San Francisco, CA 2、GTC 2018(2018 GPU技术大会) March 27-30, 2018 San Jose Convention Center (圣何塞会议中心) San Jose, CA ==== 2018年4月: 1、ISC West 2018(美国西部安防展) April 11-13, 2018 Booth # 20075 Sands Expo Las Vegas, NV ==== 2018年5月: 1、Citrix Synergy 2018 (2018 Citrix 全球客户大会) May 8-10, 2018 Booth # Anaheim Convention Center Anaheim, CA ==== 2018年6月: 1、Google Cloud Next 2018 June 4-7, 2018 Booth # Moscone Center San Francisco, CA 2、SAP Sapphire (蓝宝石用户大会) June 5-7, 2018 Booth # Orange County Convention Center (奥兰治会展中心) Orlando, FL (佛罗里达州奥兰多市) 3、E3 2018 (2018 E3游戏展) June 12-14, 2018 Los Angeles Convention Center (洛杉矶会议中心) Los Angeles, CA 4、CVPR 2018 (2018 电气和电子工程师协会(IEEE) 计算机视觉与模式识别会议) June 18-22, 2018 Booth # 807 Salt Palace Convention Center (盐宫会议中心) Salt Lake City, UT (犹他州盐湖城) ==== 2018年8月: 1、SIGGRAPH 2018 (2018 计算机图形图像特别兴趣小组会议) August 12-16, 2018 Booth # 801 Vancouver Convention Centre (温哥华会议中心) Vancouver, BC, Canada (加拿大 英属哥伦比亚省 温哥华) 2、VMWORLD 2018 (2018 VMWare 技术盛会) August 26-30, 2018 Sands Expo (金沙会展中心) Las Vegas, NV ==== 2018年11月: 1、Blizzcon 2018(2018 暴雪嘉年华) November 2-3, 2018 Anaheim Convention Center Anaheim, CA 2、Supercomputing 2018 (SC18)(2018 世界超级计算大会) November 12-15, 2018 Kay Bailey Hutchison Convention Center Dallas (Kay Bailey Hutchison会议中心) Dallas, TX (德克萨斯州达拉斯) 3、RSNA 2018 (2018年北美放射学年会) November 25-30, 2018 McCormick Palace (麦考密克宫) Chicago, IL (伊利诺伊州芝加哥)
Quadro GV100 今天,TPU从NVFlash这款BIOS刷新工具的最新版v5.427.0的二进制文件中发现了Quadro GV100的身影。
Xavier将在18Q1出样,Carmel新架构 加了文字就被删,暂时先发图
Xavier将在18Q1出样,Carmel新架构 加了文字就被删,暂时先发图
Drive PX Pegasus:一块板实现 L5 长途无人驾驶 在慕尼黑 GTC 2017 上,Nvidia 发布了针对无人驾驶汽车的重磅炸弹 —— Drive PX Pegasus。Nvidia 研发这块板花费了数年的时间,最终使其成为公司足够强大去支撑 L5 自动驾驶的首个产品。 Pegasus 的规格非常超前,一共有两块 Xavier SOC 与两块采用 SXM2 接口的独立 GPU,而且这两块独立 GPU 采用的是 Volta 的下一代架构。目前 Nvidia 大规模量产 GV100 并对计算客户出货并没有太长时间,更小的 Volta GPU 至少在 2018 年才能与我们见面,所以这块核弹板的见面时间自然还会更远。Xavier 则集成了 Volta GPU 且带有 Tensor Core,CPU 部分的八个 ARM 核心至今未公开。 Pegasus 主要面向自动驾驶出租车与长距离的无人驾驶,将与接近搭载一片 Xavier 的 Drive PX 一并存在。整个平台的 TDP 一共有 500 W ,并不是说汽车无法提供足够的供电,而是非机械部件需要如此多的电力其实挺令人感觉有趣。从技术参数上说,Pegasus 拥有 320 TOPS 的推理算力,混合内存带宽超过 1 TB/s 。其安全等级达到 ASIL-D ,并且有 16 个接口用于接入传感器(摄像头、LIDAR 等)。此外,Pegasus 上的下一代 GPU 支持 NVLINK,并且采用了与 Drive PX 2 不同的 SXM 2 中间夹层设计。TSMC 仍然负责芯片的生产,但是工艺也并未说明。Nvidia 也是第一次提到 Volta 之后的 GPU,可是消费级的 Volta 却是一点动静都没。整个平台 320 TOPS,500 W 的 TDP,减去 Xavier (目前正在流片中,等待晶圆厂送回硅片) 的 30 TOPS / 30 W ,每个独立 GPU 就是 130 TOPS 的算力和 220 W 的功耗。这差不多是相当于 G*102 或者 G*100 级别的。碰巧,这也很接近 Tesla V100 的 120 TOPS 。但是 V100 的 TDP 是 300 W,所以从这里也可以看出 Nvidia 想使用再下一代的 GPU 。Pegasus 采用风冷而不是 Drive PX 2 上的液冷。并且,作为平台的一部分,Nvidia 要求支持失效支援。至于如何部署失效支援,则由客户自行设计。 至于开放时间,PX Pegasus 将会在 Q1 2018 末开放给部分 Nvidia 选择的汽车合作伙伴。但并不清楚届时是提供具备完整开发套件的原型芯片,还是仅仅用当前已有的硬件进行模拟以支持 Kickstart 开发。另外,汽车工业的测试验证时间非常长,也许几年内我们都无法见到 Pegasus 应用于汽车上。去年 Nvidia 就已经发布了 L4 自动驾驶的硬件,但我们现在仅仅看到 L3 的车辆在为部署进行早期开发。要强调的是嵌入式产品的开发周期远远长于消费电子。Nvidia 声明,他们的汽车平台的寿命达到嵌入式级别,在这种情况下至少达到 10 年使用期限。 这是 Nvidia 第二年在欧洲举办 GTC 。Nvidia 证实 GTC Europe 将成为 Nvidia 首要的汽车相关的大会。Nvidia 还宣布了与 Deutsche Post DHL 以及 ZF 的测试自动驾驶货车方面的合作,测试将在 2018 年开始。
【高三补课前最后一坑】EPYC vs Xeon Scalable by AnandTech 一楼挖坑【原文发表于东部标准时间2017-07-11 12:15 PM】by Johan De Gelas & Ian Cutress
Xavier DLA 有没有最新进展? Xavier DLA 是 NVIDIA 基于 Xavier SoC 的一个深度学习开源加速平台,在今年的 GTC 2017 上露面。7 月份 Xavier DLA 即开放早期访问,9 月将会正式公开完整版本。 Xavier 是 NVIDIA 推出的最新一代 Tegra 系列芯片,主要是面向自动驾驶设计的。该芯片拥有 8 个自主的 ARM 核心,以及 512 个 CUDA的 GPU,Volta 架构。该 SoC 还拥有一个视觉计算加速器(Compute Vision Accelerator)和两个 8K HDR 视频处理器,整个芯片的晶体管数约为 70 亿。 Xavier 最初在 GTC 2016 阿姆斯特丹站公布时,标明采用 TSMC 16 nm FinFET Plus 工艺,不过现在看来很有可能已经迁移至新的 12 nm 制程(FFC,FFN or ???)。官方称,Xavier 在 30 W 的功耗下可以达成 30 TOPS 的深度学习性能。 目前来看,Xavier 针对自动驾驶研发,面向 Level 4 或 Level 5 级别的接近完全的自动驾驶,可以达到 ASIL D 安全等级,但是也可以用于嵌入式和 IoT 领域的其它各个方面。这个平台是对推理进行加速的,当前也仅开放了推理相关的源代码。这意味着若要对机器学习模型训练,那么这可能仍然要求与 DGX-1 等设备于服务器端配合。平台还支持稀疏网络,这种对传统网络进行剪枝后的神经网络不包含过多的冗余网络连接,在保证识别准确率无明显降低的情况下可以减少内存访问量和计算量。45nm 下一次 32 bit DRAM 数据访问需要耗能 640 pJ,而 32 bit 的整数乘法只需要 3.1 pJ。可见 Xavier DLA 与稀疏网络的配合将会强力推进计算速度的提升和大幅降低完成同样运算的耗电量。 无人驾驶投入商用极大提高了运算能力和安全性等方面的要求。现实中复杂的驾驶情况给无人驾驶带来了高难度的挑战,早晚高峰、没有画线和标志的道路、强烈而刺目的日光、雨雪等不利天气、各种各样的路况、突然冲进车道的行人,种种情况下自动驾驶系统必须能实时反应、正确决策,确保乘客的安全的同时也要做到有效节省通勤时间。除了高超的算力支持,NVIDIA 也在努力尝试解析深度神经网络中的“黑箱”,了解神经网络是如何进行决策的,这项研究已经取得一定成效。 现在 7 月已经过去了一大半,而 Xavier DLA 仍然没有新的信息放出。这不禁让我们怀疑是不是出现了新问题,平台又是否会延迟和大家正式见面。不知各位最近有没了解到 Xavier DLA 的最新消息呢?
富士通正在研发深度学习单元(DLU) http://tieba.baidu.com/mo/q/checkurl?url=http%3A%2F%2Fwww.ec.hc360.com2017&urlrefer=0fa02cb4f82833ca736fa5e84ec0ebee年07月20日10:04 来源:精实新闻T|T 各方预期人工智能(AI)将成未来科技主流,芯片厂Nvidia沾光,股价一路暴冲。不过近来新对手逐渐浮现,日厂富士通(Fujitsu)准备参战,替该公司AI微处理器设下超高目标,预期效能为竞争对手的10倍。 MarketWatch、Top500报导,富士通在发展芯片方面经验丰富,该公司是超级计算机「京」的共同开发者,替超级计算机和SPARC服务器生产处理器。富士通自2015年开始研发AI专用的微处理器「DeepLearningUnit」(DLU),但一直未曾多谈发展情况,上个月该公司AI平台资深主管TakumiMaruyama才透露更多内情。(Source:富士通) Maruyama表示,该款芯片包含16个「深度学习执行单位」(DeepLearningProcessingElement,DPEs),每个内含8个执行单位(见下图),预定2018年上市。DLU目标效能为对手的10倍。 当前AI芯片以Nvidia为市场龙头,不过对手日益增加。英特尔(Intel)将推出「LakeCrest」处理器,专为深度学习节点设计。超威(AMD)也准备以「RadeonInstinct」GPU抢攻相同市场,预料两款芯片会在未来6~12个月内问世。
AMD EPYC 7000 Series 要来了 PPT 的 NDA:6 月 20 日。 EPYC 主要特性: ·每个 CPU 最多 32 个高性能 Zen 核心 ·每 CPU 最大 8 通道 DDR4,2666 MHz,2 TB 内存 ·128 条 PCI-E 通道(Infinity Fabric 高速互连占用 64 条) ·专用安全子系统(Dedicated Security Subsystem) ·集成芯片组 ·插槽兼容下一代 EPYC 处理器
18C36T 的 7980XE!MCC 核心首次下放到 HEDT 平台
更強悍的 GPU 表現,Kaby Lake-G 確定在 Intel 規劃中 By Chris.L on 2017-04-03 in 硬體零組件, 處理器 Intel 與 AMD 合作的第 7 代 Core i 系列處理器似乎是真的。 早前曾傳出 Intel Core i 系列處理器將搭配 AMD Radeon GPU 一事,但對於網路上的各種不影響股價與公司結構的傳言,大多數公司都不會對此做任何聲明與回應。 對於此傳言,我們近期有些消息證實它確實存在。 Intel 第 7 代 Core 處理器代號為 Kaby Lake,而它有 Kaby Lake-Y、Kaby Lake-U、Kaby Lake-H、Kaby Lake-S 以及 Kaby Lake-R,其中大家最熟悉的就是桌上型電腦用的 Kaby Lake-S 系列產品;在近期收到的資料中,我們見到一款代號 Kaby Lake-G 的產品出現。14nm 製程的 Kaby Lake-G 相當有趣,因為資料中是這樣介紹它的。「-G」意味著這系列的 Kaby Lake 處理器封裝上將會透過 PCIe x8 通道,直接連接獨立 GPU 晶片,而且是帶有 HBM2 記憶體封張的 GPU 晶片。 Kaby Lake-G 目前會有 2 款產品,確切型號不詳,但其中一款的 TDP 為 100W,而另一款則是 65W,都是 4 核心配置;2017 年第一季推出的 Kaby Lake-H 系列處理器中,時脈 4.1GHz 的 Intel Core i7-7920HQ TDP 為 45W。此外,Kaby Lake-G 系列處理器封裝也較目前大部分 Gaming 筆電使用的 Kaby Lake-H(42 x 28mm)大,其實際封裝為 58.5 x 31mm。依照資料中提到的封裝尺寸,Kaby Lake-G 很大可能是 BGA 封裝,也就意味著它將會在高階 Gaming 筆電上見到,但我們目前沒有更多資訊確認這事。
Naples:老子就是要 K 掉至强! 近期,AMD 展示了新一代的服务器 CPU —— 32 核心的 Naples 处理器,重新宣战数据中心。该芯片为 32 核心 SOC 设计,支持 SMT ,单颗 CPU 一共有 64 个线程。每个 CPU 支持 8 通道 DDR4 内存,两个 Naples 一起一共可以同时插入 32 条 DIMM,实现 4 TB 的内存容量。Naples 还有专门的硬件模块负责安全。每个 Naples 可以提供 128 条 PCI-E 3.0 通道,但两路 Naples 的 PCI-E 通道同样只有 128 条,因为 Infinity Fabric 使用相当多的通道来维持两个芯片的一致性。AMD 在展示中,剑指 Intel Xeon E5-2699A v4,宣称在应用中远远超出竞争对手。测试平台统一采用 2 个 CPU,单条 16 GB 的 DIMM。例如在地震分析中,两个平台都仅启用 44 颗核心,内存频率统一设定为 933 MHz,在十亿采样格点、10 次迭代的测试条件下,Intel 平台用时 35 秒完成,而 AMD 的 Naples 仅仅耗时 18 秒,快了接近 100 %。当 AMD 平台全部启用 64 核心,内存频率设定为 2400 MHz 时,则耗时区区 14 秒,一举实现了超越 Xeon E5 平台 150 % 的壮举。当采样格达到 40 亿,4 倍数据集时,Intel 平台由于内存仅配置了 384 GB,已经不能运行分析。而双路 Naples 平台用时为 54 秒。AMD 声称,Naples 具备极其强大的伸缩性,从单路 16 核心一直到双路 64 核心,SpecInt 分数几乎实现了线性增长。 BenchLife 点评: 就資料來看,Naples 具有相當大的優勢,但 Data Center 以及 Server 強調的是生態系統(ecosystems)。 面對著 Intel 陸續將市場侵蝕,推出 Zen 處理器架構的 Naples 對 AMD 相當重要,但這重要似乎也不太重要。或許在生態系統仍舊無法與 Intel 抗衡(轉頭看向 ARM Server…),但現階段的產品規劃不會比過去數年還要糟糕,也就是說最壞的情況已經過去,或許在好產品陸續端出後,能夠從龐大的 Data Center 市場中找回一些可能。 更簡單來說,AMD 推出的 Naples 並沒有什麼輸不起的,反倒是一個優勢,因為最壞的情況已經過去。就如 AMD 的簡報第一頁圖片,Naples 對於他們來說,這將會是一道曙光,照耀著他們接下來數年的產品佈局。 Naples 以及會在 2017 年第二季開始出貨。
【随便写写 2】Volta 的小预测 一、Volta各个核心的理论浮点性能。 首先我们先推出一个大核心(当然是 GV100)的浮点性能作为基准,剩下的按照大概的比例再一并推出就可以了。 关于 GV100,我给出的估计是 双精度 7 TFLOPS ~ 9.5 TFLOPS。这个不是 WCCFTech 那样瞎几把掰的, 推理过程是这样:帕斯卡在路线图上标称双精度是 4 TFLOPS,结果 Tesla P100 一出来双精度有 5.3 TFLOPS;Volta 在路线图上标的是 7 TFLOPS,那么等比过来就是 7 ~ 9.3 TFLOPS 咯。不过 Tesla P100 毕竟还是阉了一点 SM 的,所以为完整版 GV100 预留一点空间,最终得到区间 7 ~ 9.5 TFLOPS。这么推下来,按照现在已经流出的 PPT,SUMMIT 上每个节点的 6 块 Volta GPU 当然不是满血的,大概是每张卡 7 点几 T 的双精度,每个节点就是 40 多 T 的双精度,TDP 当然也不会跑到 300 W。好了,有了一个大核心作基准,剩下的核心按照以往的情况大概也可以估计出来了。我们先来看(下面列举的全部是 FP32 浮点,取的是采用该核心的消费卡或作图卡或计算卡出现的最高的浮点(仅公版,不算移动卡)): GM107:1.39 T,GM206:2.41 T,GM204:4.98 T,GM200:7 T GP107:2.14 T,GP106:4.37 T,GP104:8.87 T,GP102:12 T,GP100(3840 sp):11.36 T(预测值,偏保守,TITAN BLACK 比 TITAN 不仅多一组 SMX 还提频了呢,不过 980 Ti 和 GTX TITAN X 公版的基频和加速频率都是一样的)这个是光算 SP 提升假设频率一样的预测结果,计算卡的 BOOST 频率比较难搞到) GV100 预测的双精度 7 ~ 9.5 T,单精度就是 14 ~ 19 T。 所以,以每一代的最大的核心为基准,也可以推出各个核心的单精度性能了: GV107:2.6 ~ 4 T,GV106:5.1 ~ 7.3 T,GV104:10.5 ~ 14.0 T,GV102:14.8 ~ 20.1 T。 再提出 2 点预测: (1)只有 GV100 能够完全支持混合精度,也就是 FP16:FP32:FP64=4:2:1,其余核心的双精度均为 1/32 单精度,半精度均为 1/64 单精度。 (2)如果存在 GV110,那么它是一个更加专注于 FP32 的核心,也可能会支持达到 2 倍单精度的半精度理论运算速度。 (3)带宽方面,给保守一点,731.1 GB / s ~ 835.6 GB / s(GV100),毕竟我们现在还没有见到 1 TB / s 的 Pascal 计算卡不是么。 二、Volta 的主要改进 1、能效:对比帕斯卡, 1.7 倍到 2 倍。 一来是 Volta 可能采用 12 nm 制造工艺(不要听一些网站胡扯是面向移动的,12 nm 就是第四代 16 nm,提升比较明显),二来我们要预留一些超出路线图的提升,GTC 2016 前爆料说帕斯卡单精度 12 TFLOPS(没想到居然给 Quadro P6000 实现了)双精度 4 TFLOPS,结果呢? 2、更强的整数运算性能。 可以看一看下面 GTX 1080 的 CUDA-Z 评分,整数部分还有很大的提升空间。3、NVLink 2.0 总线(计算卡独占) 4、针对深度学习优化的架构, 或许独立显卡和计算卡也会出现专门的 ASIC? 这个是从 Xavier 猜测的,拿降频到 810 / 1063 MHz 的 Tesla P4 (75 W)来说,INT8 能效为 290.26 GOPS / W,而 Xavier 的 INT8 能耗比高达 1 TOPS / W,显然这个提升是不可能通过一代的 GPU 架构暴改就达成的,因此 Xavier 集成有针对深度学习的 ASIC 已经是板上钉钉。不知独显和加速卡是否也会采取同样的方案呢?
RYZEN RUMOR PART 2:《狙击精英 4 》高于 6900K,多媒体 so-so 一楼防吞
1D81 Graphics Device (GV100) [速报]AIDA64最新曝光的新家伙,看来GV100已经在测试了。
1D81 Graphics Device (GV100) [速报]AIDA64最新曝光的新家伙,看来GV100已经在测试了。
6C12T 的 Ryzen 在 Cinebench R15 里多线程平了 6800K 【简讯】近日越来越多的 RYZEN 测试成绩流出,大有枪挑 Intel 的 HEDT 平台之势。RYZEN 到底将凭实力发动奇袭,扭转 Intel 在桌面平台挤滴管(压片等应用程序除外)的颓势,还是沦为昙花一现的烟雾弹?RYZEN 的解禁,能否成为消费平台 CPU 市场熊熊战火的引燃剂?让我们挪好板凳躺椅捎着瓜子汽水占领前排,等待爆料的澎湃波涛来得更震撼吧!
新 Xeon 单线程提升最多一倍,不过命名有股氪金网游的气息 tieba.baidu.com/p/4970599774 chiphell.com/forum.php?mod=viewthread&tid=1700139 其实 Skylake 服务器平台的 CPU 跑分已经从去年 Q4 开始陆陆续续从 Sisoftware 流出了,不过并没有引起太多的注意。但是新玩意儿的蛛丝马迹怎么会溜过广大 Geeks 的法眼呢,Skylake 服务器 CPU 的 Sisoftware 跑分提升可谓惊喜,不过命名已经不叫 E7-8800 v5 / 4800 v5 / E5-26xx v5 了,而是分成了四个系列:Bronze、Silver、Gold、Platinum,也就是青铜、白银、黄金、铂金,是不是感觉 Intel 公司里头有着人数不小的氪金网游狂热群体呢? 爆料称,LGA 3647 的 Skylake Xeon 将不再称为 Skylake-EP 和 EX,将改用 Skylake-SP 和 Skylake-F 称呼,同时放弃 Xeon E5 和 Xeon E7 的提法。新的 Xeon 将使用 Xeon Platinum、Xeon Gold、Xeon Silver、Xeon Bronze,白金、黄金、白银、青铜来区分等级。 白金志强:Xeon Platinum 81xx 黄金志强:Xeon Gold 51xx / 61xx (两者差别是 UPI 数,即之前的 QPI ,估计类似于 E5-4600 与 E7-4800 的差别) 白银志强:Xeon Silver 41xx (最多 12 核) 青铜志强:Xeon Bronze 31xx (最多 8 核) 据泄露,最高端型号 Xeon Platinum 为 28 核 / 56 线程,TDP 205W。不过 SiSoftware 上出现的 28 核心 CPU 也是 198 W 的,与 Xeon Gold 6150(18 核 / 36 线程,2.7GHz,TDP 198W)保持一致。Xeon Silver 和 Bronze 据称最高85W。 Skylake 至强 CPU 的 L2 从每个核心 256 KB 增加到了 1 MB(通过 Smart Cache 实现共享),共享 L3 则大幅度减少了,从每个核心搭配 2.5 MB 降低到了比较奇葩的 1.375 MB,可以看出缓存架构进行了非常大的动作。 新的服务器 CPU 还会有 P 和 F 结尾的型号,对应搭载了 FPGA 和 Omni-Path,其中 F 型号形状如同 Xeon Phi Fabric 型号那样有突出部分。 原 E5-1600 系列将被 Skylake-W 所取代,为 LGA 2066 插槽、4 通道内存,和 Skylake-X 同属 Basin Falls 平台系列,Skylake-W 有48 条 PCI-E 通道。不过 Skylake-W 的 Xeon 怎么命名尚待确认。 也就是说,双路 CPU 从物理上彻底断绝了与 X299 主板的联系,再也不会出现十几二十核的 Xeon 处理器搭配 X299 芯片组的低成本方案了。 SiSoftware 上面出现了 4 款新的至强处理器,分别为 16、18、24、28 核心,不过只有18 核的 Xeon Gold 6150 的跑分是比较正常的。 Xeon Gold 6150 标定为 2.7 GHz 的频率,但不知为何 SiSoftware 显示其运行速度达到 3.7 GHz,每 GHz 性能相比 22 核 Broadwell-EP 的 E5-2696 v4 (标称 2.2 GHz,测试时运行频率 3.79 GHz)提升高达 62.9 %,也就是说单核性能提升接近恐怖的 100 % !此外,整数、长整数、单精度、双精度多媒体性能的提升幅度分别为 41.7 %、57.4 %、58.3 %、79.3 %;不过四字节整数和四精度浮点提升不大,前者甚至降低了 2.8 %。 Skylake 服务器 CPU 支持 AVX-512 指令集,可以大幅度加速视频相关等工作。HEDT 方面,Skylake-X 的 L3 Cache 最多也是 13.75 MB,可能与服务器端也有同样大的架构改动。那么 Skylake-X 的提升是否也是一个大大的惊喜呢?当然只有时间能够告诉我们答案。Kaby Lake-X 系列的三级缓存最大依然是 8 MB,自然也就没有这样的福利咯。 Intel 作出如此改进,我们不得不猜测其中一个原因是应对 AMD 的下一代服务器芯片(32 核的 Naples,Zen 架构)。Intel 还在 AI 领域高歌猛进,展示了旗下用于深度神经网络计算(Deep Neural Network,DNN)的 Lake Crest 家族新芯的进展,基于 Nervana 平台打造,宣称可以在同样晶体管密度的情况下提供比 GPU 更强大的性能。Intel 称自己使用了Flexpoint 架构,MCM 多芯片封装,搭载 32 GB HBM 2 存储,内部互联速度是 PCIe的 20 倍,浮点运算性能 8 TFLOPS。此前,Intel 还放下豪言,宣称在 2020 年将神经网络的训练速度提升 100 倍。Lake Crest 将与 Knights Mill 加速卡一同发布。至于桌面平台,继续挤滴管的趋势已经可以预见。P.S. 还记得 ROG 的 OC Socket 吗?这块 ROG 主板将 LGA 2011-3 接口剩余的触点补齐了,结果把 PCI-E 3.0 通道数提升到了 64 条。目前的消息都指出 Skylake-X 以及双路、多路服务器平台都达到每个 CPU 48 条 PCI-E 通道,Intel 肯定是打算一代一代通过增加少量针脚的方式慢慢地将 64 条 PCI-E 通道陆续开启。但是我猜测一些 Skylake-X 平台的 U 可能会砍到 44 条,甚至 32 条 or 28 条...? 跑分:ranker.sisoftware.net/top_run.php?q=c2ffcee885e8d5f381bc8dabc2ffcfe981bc8caad2efdff99cf9c4f4d2a19cac&l=zh
新 Xeon 单线程提升最多一倍,不过命名有股氪金网游的气息 tieba.baidu.com/p/4970599774 chiphell.com/forum.php?mod=viewthread&tid=1700139 其实 Skylake 服务器平台的 CPU 跑分已经从去年 Q4 开始陆陆续续从 Sisoftware 流出了,不过并没有引起太多的注意。但是新玩意儿的蛛丝马迹怎么会溜过广大 Geeks 的法眼呢,Skylake 服务器 CPU 的 Sisoftware 跑分提升可谓惊喜, 不过命名已经不叫 E7-8800 v5 / 4800 v5 / E5-26xx v5 了,而是分成了四个系列:Bronze、Silver、Gold、Platinum,也就是青铜、白银、黄金、铂金,是不是感觉 Intel 公司里头有着人数不小的氪金网游狂热群体呢? 爆料称,LGA 3647 的 Skylake Xeon 将不再称为 Skylake-EP 和 EX,将改用 Skylake-SP 和 Skylake-F 称呼,同时放弃 Xeon E5 和 Xeon E7 的提法。新的 Xeon 将使用 Xeon Platinum、Xeon Gold、Xeon Silver、Xeon Bronze,白金、黄金、白银、青铜来区分等级。 白金志强:Xeon Platinum 81xx 黄金志强:Xeon Gold 51xx / 61xx (两者差别是 UPI 数,即之前的 QPI ,估计类似于 E5-4600 与 E7-4800 的差别) 白银志强:Xeon Silver 41xx (最多 12 核) 青铜志强:Xeon Bronze 31xx (最多 8 核) 据泄露,最高端型号 Xeon Platinum 为 28 核 / 56 线程,TDP 205W。不过 SiSoftware 上出现的 28 核心 CPU 也是 198 W 的,与 Xeon Gold 6150(18 核 / 36 线程,2.7GHz,TDP 198W)保持一致。Xeon Silver 和 Bronze 据称最高85W。 Skylake 至强 CPU 的 L2 从每个核心 256 KB 增加到了 1 MB(通过 Smart Cache 实现共享),共享 L3 则大幅度减少了,从每个核心搭配 2.5 MB 降低到了比较奇葩的 1.375 MB,可以看出缓存架构进行了非常大的动作。 新的服务器 CPU 还会有 P 和 F 结尾的型号,对应搭载了 FPGA 和 Omni-Path,其中 F 型号形状如同 Xeon Phi Fabric 型号那样有突出部分。 原 E5-1600 系列将被 Skylake-W 所取代,为 LGA 2066 插槽、4 通道内存, 和 Skylake-X 同属 Basin Falls 平台系列,Skylake-W 有48 条 PCI-E 通道。不过 Skylake-W 的 Xeon 怎么命名尚待确认。 也就是说, 双路 CPU 从物理上彻底断绝了与 X299 主板的联系,再也不会出现十几二十核的 Xeon 处理器搭配 X299 芯片组的低成本方案了。 SiSoftware 上面出现了 4 款新的至强处理器,分别为 16、18、24、28 核心,不过只有18 核的 Xeon Gold 6150 的跑分是比较正常的。 Xeon Gold 6150 标定为 2.7 GHz 的频率,但不知为何 SiSoftware 显示其运行速度达到 3.7 GHz, 每 GHz 性能相比 22 核 Broadwell-EP 的 E5-2696 v4 (标称 2.2 GHz,测试时运行频率 3.79 GHz) 提升高达 62.9 %,也就是说单核性能提升接近恐怖的 100 % !此外,整数、长整数、单精度、双精度多媒体性能的提升幅度分别为 41.7 %、57.4 %、58.3 %、79.3 %;不过四字节整数和四精度浮点提升不大,前者甚至降低了 2.8 %。 Skylake 服务器 CPU 支持 AVX-512 指令集,可以大幅度加速视频相关等工作。HEDT 方面,Skylake-X 的 L3 Cache 最多也是 13.75 MB,可能与服务器端也有同样大的架构改动。那么 Skylake-X 的提升是否也是一个大大的惊喜呢?当然只有时间能够告诉我们答案。Kaby Lake-X 系列的三级缓存最大依然是 8 MB,自然也就没有这样的福利咯。 Intel 作出如此改进,我们不得不猜测其中一个原因是应对 AMD 的下一代服务器芯片(32 核的 Naples,Zen 架构)。Intel 还在 AI 领域高歌猛进,展示了旗下用于深度神经网络计算(Deep Neural Network,DNN)的 Lake Crest 家族新芯的进展,基于 Nervana 平台打造,宣称可以在同样晶体管密度的情况下提供比 GPU 更强大的性能。Intel 称自己使用了 Flexpoint 架构,MCM 多芯片封装,搭载 32 GB HBM 2 存储,内部互联速度是 PCIe的 20 倍,浮点运算性能 8 TFLOPS。此前,Intel 还放下豪言, 宣称在 2020 年将神经网络的训练速度提升 100 倍。Lake Crest 将与 Knights Mill 加速卡一同发布。至于桌面平台,继续挤滴管的趋势已经可以预见。
美光内存、闪存路线图:64层3D NAND、QLC、GDDR6 2017-2-4 10:54 | 作者:bolvar 在2017冬季分析师会议上,美光宣布CEO Mark Durcan退休,该公司将寻找新的CEO人选,这意味着美光即将进入新的时代。在这次会议上,美光公司还公布了一系列产品路线图,涉及NAND闪存及DRAM内存两个主力,引人注意的是美光今年将量产64层3D NAND闪存,并研究QLC闪存的市场需求,DRAM内存也在推进1X、1Ynm工艺进展,并准备推出GDDR6。过去的大半年中,NAND闪存及DRAM内存的涨价让不少存储芯片厂商的日子大大改善,三星、SK Hynix及东芝就不少了,美光也受益良多,去年底公布的2017财年Q1财报中营收39.7亿美元,比上涨23%,同比上涨19%,净利润1.8亿美元,而上个季度还净亏损了1.7亿美元。 在这次的分析师会议中,美光又公布了未来的产品路线图,主要有NAND和DRAM两大类产品,来看下Computerbase网站的报道,首先是美光2016年取得的成绩。美光2016年取得的成绩 2016年中,DRAM产线上美光成功转换到了20nm工艺,产能不断增加,1Xnm DRAM内存正在稳步进行中。闪存方面,美光及Intel量产了32层堆栈的第一代3D NAND闪存,成本、性能相比平面NAND闪存大为改善,64层3D NAND闪存正在开发中。NAND闪存工艺进展 先说闪存方面的,美光今年主要是生产32层堆栈的TLC闪存,2017财年底(今年9月之前)将会制造64层3D NAND闪存,这是第二代3D NAND闪存了,而第三代3D NAND闪存预计会在2017年下半年推出,不过细节未知,从美光公布的数据来看,3代3D闪存每单位晶圆的GB容量进一步提升40%。 值得注意的是,美光也提到了QLC闪存,在此之前东芝及西数也公开提到了研发QLC闪存,也是每个cell单元储存4位数据的NAND,TLC则是3位数据。不过QLC闪存目前还只是研发阶段,真正上市还早呢。世界最小的256Gb闪存 虽然美光的3D NAND闪存量产时间晚于三星,不过他们在3D NAND也有独到之处,此前美光/Intel就公布过世界上容量最高的384Gb TLC闪存,这次美光又公布了世界上核心面积最小的256Gb 3D NAND闪存核心,只有59mm2,与其他厂商的64层3D NAND相比,美光的256Gb核心密度达到了4.3Gb/mm2,比竞品高出25%左右。 由于面积更低,美光的256Gb核心3D NAND主要用于移动市场,另外还有512Gb的TLC闪存,不过演示中并没有提及。美光DRAM技术路线图 在DRAM内存技术方面,美光去年完成了20nm工艺转换,2017年还会继续推进新制程研发,2017财年底会实现有意义的1Xnm工艺DRAM生产,每Gb成本预计降低20%以上。2017年下半年则会开始转向1Ynm工艺,而美国、日本的研发中心也会进行第三代10nm级工艺1Znm研发。 目前显卡使用的显存是GDDR5及GDDR5X,后者还是美光独家提供的,而在未来产品上,美光预计会在今年底或者明年初推出GDDR6显存,这跟三星在2018年推出GDDR6显存的计划差不多。 此外,美光及Intel联合开发的3D XPoint闪存也没啥消息,Intel好歹还推出了16、32GB容量的3D XPoint闪存,美光虽然将其命名为QuantX产品线,但一直没有产品宣布。至于更黑科技的存储芯片,美光也简单提了一下,包括ReRAM、STT MRAM等等,这些芯片的性能会接近DRAM内存,而且还是非易失性的,但成本也会高得多。
【随便写写 2】Volta 的小预测 一、Volta各个核心的理论浮点性能。 首先我们先推出一个大核心(当然是 GV100)的浮点性能作为基准,剩下的按照大概的比例再一并推出就可以了。 关于 GV100,我给出的估计是 双精度 7 TFLOPS ~ 9.5 TFLOPS。这个不是 WCCFTech 那样瞎几把掰的, 推理过程是这样:帕斯卡在路线图上标称双精度是 4 TFLOPS,结果 Tesla P100 一出来双精度有 5.3 TFLOPS;Volta 在路线图上标的是 7 TFLOPS,那么等比过来就是 7 ~ 9.3 TFLOPS 咯。不过 Tesla P100 毕竟还是阉了一点 SM 的,所以为完整版 GV100 预留一点空间,最终得到区间 7 ~ 9.5 TFLOPS。这么推下来,按照现在已经流出的 PPT,SUMMIT 上每个节点的 6 块 Volta GPU 当然不是满血的,大概是每张卡 7 点几 T 的双精度,每个节点就是 40 多 T 的双精度,TDP 当然也不会跑到 300 W。好了,有了一个大核心作基准,剩下的核心按照以往的情况大概也可以估计出来了。我们先来看(下面列举的全部是 FP32 浮点,取的是采用该核心的消费卡或作图卡或计算卡出现的最高的浮点(仅公版,不算移动卡)): GM107:1.39 T,GM206:2.41 T,GM204:4.98 T,GM200:7 T GP107:2.14 T,GP106:4.37 T,GP104:8.87 T,GP102:12 T,GP100(3840 sp):11.36 T(预测值,偏保守,TITAN BLACK 比 TITAN 不仅多一组 SMX 还提频了呢,不过 980 Ti 和 GTX TITAN X 公版的基频和加速频率都是一样的)这个是光算 SP 提升假设频率一样的预测结果,计算卡的 BOOST 频率比较难搞到) GV100 预测的双精度 7 ~ 9.5 T,单精度就是 14 ~ 19 T。 所以,以每一代的最大的核心为基准,也可以推出各个核心的单精度性能了: GV107:2.6 ~ 4 T,GV106:5.1 ~ 7.3 T,GV104:10.5 ~ 14.0 T,GV102:14.8 ~ 20.1 T。 再提出 2 点预测: (1)只有 GV100 能够完全支持混合精度,也就是 FP16:FP32:FP64=4:2:1,其余核心的双精度均为 1/32 单精度,半精度均为 1/64 单精度。 (2)如果存在 GV110,那么它是一个更加专注于 FP32 的核心,也可能会支持达到 2 倍单精度的半精度理论运算速度。 (3)带宽方面,给保守一点,731.1 GB / s ~ 835.6 GB / s(GV100),毕竟我们现在还没有见到 1 TB / s 的 Pascal 计算卡不是么。
【转】笔记本P4000测试,比M5000M都高一大截 原帖:tieba.baidu.com/p/4957328937 原作者:mescan12 ================ 刚装好,系统不完善,跑分偏低。 BIOS没更新,硬件也不识别。 12.1跑分里面,我用的西门子NX软件,从90分,提升到了130分,跨越还是挺大的。 11跑分里面, maya计算器没安装所以跑分就那样。 大家看看吧。 从网上找了个M5000M的对比。
【随便写写 1】新 Quadro 及 VCA 为代表的帕斯卡相关产品后续 1、关于未发布的 Quadro 台机:P4000、P3000,分别对应桌面1070、1060核心。 笔电:目前已经发布P3000、P4000、P5000,但是跟台式工作站中同样的型号不一样, 均为 GP104 的重度阉割版。P3000 砍到 1280 SP,192-bit 位宽,P4000 为 1792 SP,P5000 为 2048 SP,对应笔记本 1070。核心代号分别为 N17E-Q1/Q3/Q5-A1。很显然,与上代 M 系列专业卡比较还缺了 N17E-Q7-A1,也就是完整未阉割的 P5500。当重度阉割版 GP104 甩得差不多的时候, P3000 的核心将会被 GP106 替代,正如新老两版 GTX 965M 那样。 2、关于 GP102 Titan X (Pascal) 的核心代号为 GP102-400-A1。以为消费卡的核心到 400 就到头了?非也非也。 GTX 780 TI:GK110-425-B1 GTX TITAN BLACK:GK110-430-B1 所以说,比新 TTX 规模更大的卡存在的可能性还是得保留。 3、关于新 Jetson 开发板 新的 Shield TV ( 缩掉了 SD 卡卡槽和部分 USB 接口)继续采用 Tegra X1 处理器,Jetson TX1 开发板的服役周期也比我想象中的长了很多。4 月 19 日至 22 日在休斯敦还会举行 FIRST 机器人锦标赛,有参赛选手使用 Jetson TX1 开发板制作新的机器人。另外 Nvidia 和 Cisco 最近合作通过 Jetson TX1 实现异地展示工作状况。以上种种迹象表明 Nvidia 可能正在加速释放剩余 Tegra X1 的库存。 其实新的 Jetson 开发板已经在去年的 ComputeX 2016 上露过面了,4 GB LPDDR4 内存,带宽 51.2 GB / s,跟 Parker 对上了。当时 Nvidia 没有作过多介绍,只是召开了一个秘密会议透露了 新的 Tegra 为某一客户所定制(当然现在答案已经很明显了)。Parker 的核心是 13 mm × 12.5 mm,挺大了。Tegra X1 的核心面积可根据 Pixel C 的拆机图先在三星半导体的官方网站找出 eMMC 颗粒的尺寸,再等比量得 Die Size 大约为 114 mm²。 新 Jetson 开发板的正式公布很可能得再等上好一阵子,至少得 GTC 2017 吧,或者更迟。 4、关于新的 Quadro VCA(视觉计算设备)。 IRAY 渲染器只能在 Quadro VCA 上运行。 上一代 VCA 是和 GTX TITAN X 一起发布的,那么新的专业卡出来了以后对应的 VCA 也已经在接近了。图形卡方面,按理来说是 P6000 无误,不过就在一月份,Geeks3D 坛子的一份新料流出来了。 爆料者 Stefan 是全网第一个爆出 GP102-400-A1 的个人:这个 Quadro GP100 是什么鬼?难道是传说中的 GP110 ?不过按照目前专业卡市场的状况来看 Nvidia 凭借 P5000 / P6000 取得绝对优势,又搞出个超大的核心显得不是很必要。 2 月 5 日到 8 日四天,在洛杉矶会展中心举行的 SolidWorks World 上,Nvidia 会展出新的 Quadro 专业卡。如果有新的 VCA 的话,应该也得揭开真面目了,毕竟距离一代 Quadro VCA 发布已经过去了差不多两年。如果到时候用的是 8 路 P6000 的话,这个 Quadro GP100 基本就可以断定是笔误了。要是没有出现新 VCA ……那么带 HBM 2 的 GP110 也可以继续期待一下,并且比目前 TITAN X (Pascal) 更大规模的消费卡应该也能确定其存在了。 关于 New Quadro VCA 的其它方面,CPU 部分,我们知道 E5 v3 是从 14Q3 陆续发布的,E5 v4 则是 16Q1。那么 E5 v5 怎么看也是 17Q3,而 IDF 峰会正好是在 2017 年第三季度。所以新的 VCA 工作站肯定就是 E5 v4 了,当然一代 VCA 的 10-core E5 v3 (2.8 GHz) 在 Intel ARK 数据库中是找不到的,怀疑为定制版。那么这回新 VCA 采用的或为 12 或 14-core E5 v4 定制版,同样不会出现在 ARK 中。 内存和 SSD 部分基本能猜到是翻倍,也就是 512 GB DDR4 LRDIMM,以及 4 TB SSD。一代 VCA 是 4 × 500 GB,我个人猜测这次会用 SATA 接口的 PM863,对就是 DGX-1 上面用的那个。不过 DGX-1 用的是 1.92 TB 版本,所以四块 PM863 组成 3.84 TB 是一个比较合理的猜想,当然 7.68 TB 的猜测也不要这么快废掉。以影视行业为例,工作过程中海量的数据是家常便饭,多点容量也算情有可原嘛。 E5 v4 对应的 C612 芯片组还是有一些 PCI-E 通道的,走芯片组的 PCI-E SSD 当然也很吼啊。挖掘经验的同时看看能中几条
Skylake-X 与 Kaby Lake-X,8 月见 (注:原文因被百度拦截而作改动,地址:benchlife.info/intel-will-not-announce-skylake-x-kaby-lake-x-with-x299-in-computex-01222017/)
【Geeks3D】工程版NVFlash 5.340.0捅出些新卡但没1080Ti
紫光700亿美元打造三大存储芯片厂,2018年量产3D NAND 2017-1-13 11:21 | 作者:bolvar (有改动) 闪存、内存市场这一年来遇到了好时机,来自中国厂商的需求使得存储芯片市场从降价变成了缺货涨价,直到今年Q1季度都会持续上涨。闪存涨价也让三星、SK Hynix、美光等公司过了好日子,三星去年Q3季度在Note 7上的损失在Q4季度就被闪存涨价弥补回来了。中国缺少NAND闪存自主生产能力是个大问题,好在紫光集团已经在布局了,将在武汉、南京、成都三地建设存储芯片厂,总投资700亿美元,2018年将量产国产3D NAND闪存。图片来源于网络 紫光集团收购新芯公司之后,在武汉投资240亿美元建设国家存储芯片基地已经不是新闻了,这两年来时常见诸媒体报道。Digitimes也报道称湖北武汉市(原文打错成了河北省)的工厂占地面积13公顷,近日已经开工,预计2018年正式量产3D NAND闪存。 不过武汉只是紫光存储芯片布局的一部分,2017年在四川成都、江苏南京还有两个大计划,投资超过460亿美元,早前我们报道过前联电CEO孙世伟加盟紫光担任副总,他负责的就是成都晶圆厂,投资超过1200亿人民币。 武汉的240亿美元加上成都、南京460亿美元的投资,紫光建设三大存储芯片基地的投资将超过700亿美元,人民币接近5000亿元,放眼全球也是大手笔投资了,以致于美国都在政府顾问报告中指出中国发展半导体产业将降低美国企业竞争力,甚至影响美国国家安全。 除了存储芯片之外,紫光集团还在寻求进入逻辑IC芯片制造领域,也就是说存储芯片针对的是三星半导体、美光、东芝这些公司(部门),而逻辑芯片制造则是针对Intel、TSMC、三星LSI等公司(部门)了。
面向笔记本的Quadro Pxxxx来了,没有M后缀
面向笔记本的Quadro Pxxxx来了,没有M后缀
面向笔记本的Quadro Pxxxx来了,没有M后缀
Dolby Vision蓝光碟即将面世 而杜比的视听革命才刚刚开始 alsed | 2017/01/06 影音 杜比的展区并不在拉斯维加斯LVCC展馆内,而是设在了拉斯维加斯大道上的永利酒店内的Mouton Ballroom。说实话,这个位置不太好找……由于事先有过预约,所以有幸和其他几名外媒记者一同参加杜比技术的演示会。其实近几年杜比的技术完全可以用两个词来总结,那就是杜比视界(Dolby Vision)和杜比全景声(Dolby Atoms)。此次杜比的CES展区也完全围绕着这两点展开。关于杜比视界,之前爱活网解释得已经非常清楚了。所以这次的技术展示主要以观看最新demo和疑难解答为主。事实上,采用杜比视界技术的4K蓝光碟已确定将在2017年上半年推出,包括狮门、环球、华纳都已明确表态会推出多部电影内容。这也意味着杜比视界继电影、电视剧和流媒体市场后,也终于能够通过最新的4K蓝光进入我们的电视。 很多人都不明白,以杜比视界为首的HDR格式,究竟在画面上有何不同?简单的概括下,就是强烈的光影感。由于HDR内容在色域、亮度和动态范围上都有了长足的进步,经过HDR电视的回放后,这些信息都会展现出来。而相比之下SDR画面就会像蒙了一层雾一样,没有那么富有立体感了。使用杜比视界(上)与无杜比视界(下)后的对比效果 那么,相关的疑问就来了。有杜比视界4K蓝光碟后,哪些4K蓝光机能支持它呢? 答:目前有三台4K蓝光机支持杜比视界技术,分别是飞利浦的BDP7502、LG的UP970和OPPO的UDP-203。数量上确实有些少,不过鉴于杜比视界4K蓝光碟仍在酝酿阶段,后续说不定还会有更多新品。另外,我也特地询问了杜比的工作人员,使用杜比视界技术的4K蓝光碟是否会支持HDR10,还是仅支持杜比视界,又是否兼容SDR电视? 答:所有使用杜比视界技术的4K蓝光碟都会搭载有包含HDR10的基本层,与包含杜比视界的增强层。因此如果电视不支持杜比视界,那么4K蓝光机就会自动启用包含HDR10的基本层。只有4K蓝光播放机与电视均支持杜比视界,且使用的是HDMI 2.1传输HDMI 2.0a以上的传输协议(经最终确认,只需HDMI 2.0a以上版本即可),才能观看到杜比视界的画面。至于在SDR电视上播放,需要启用4K蓝光机内部的转换功能,将HDR转换到SDR。这部分肯定会有画质上的损失,但具体怎么去实现要看厂商自己的解决方式了。 那么,来说说现场最新demo的观看体验吧。片源是不知名影片的杜比视界4K蓝光碟,使用OPPO UDP-203 4K蓝光播放机播放,使用的电视也是不知名……由于涉及到版权问题,所以没有照片,请各位自行脑补了。最让人印象深刻的还是色彩,远超越普通1080p蓝光的色彩表现。你会发现电视感觉是打开了一扇全新的大门,电影画面的华丽程度堪比厂商的演示片。我想说,这才是蓝光应有的本来面貌啊。除了杜比视界,他们也有介绍杜比全景声的最新研究成果。越来越多的智能手机将会支持杜比全景声,另外也包括笔记本。现场使用的是联想最新的Y720,内置杜比全景声后即便佩戴普通耳机都能感受到非常明显的声音交错与空间感。虽不至于像人头录音那样惊悚,但确实与普通的音效截然不同。联想Y720笔记本 我特意询问了下,笔记本和智能手机搭载的杜比全景声究竟是基于软件还是硬件,又是否需要内容上的支持?杜比的回答是,移动设备上的杜比全景声依赖于内部的CPU或是ARM处理器内的DSP进行计算,同时也需要内容上的支持。因为杜比全景声的内容无论在电影行业内还是移动领域内,都是基于对象的声音系统。只有经过杜比全景声制作的内容,再经过杜比全景声认证的设备播放出来才会有效果。也就是说,移动设备上的杜比全景声并不是我们通常理解上的音效,它其实是一个解码技术,可以理解为Dolby Atoms for mobile。目前杜比已经有多部针对移动设备推出的杜比全景声内容了,但可惜还没有进入中国市场。 可能有人想问,移动设备支持杜比全景声究竟有什么用呢?你要用更长远的眼光看。未来杜比全景声以及杜比视界在游戏领域可以说大有可为,你可以想象下在游戏中体验十足的光影感,同时还能聆听到力道强劲、空间定位感逼真的音效,这是多么美妙的事情啊。如今PS4与Xbox One均支持HDR10,HDR画面终于来到了游戏领域。那么画面比HDR10更出众的杜比视界,也让我们非常期待。所以,我也在现场向杜比的技术人员提问,什么时候能看到PS4与Xbox One支持杜比视界的这一天呢?可惜杜比的技术人员表示近期不太可能。因为与视频不同,游戏画面是实时运算的,再加上杜比视界庞大的信息量,这对主机芯片的运算能力提出了更高的要求,所以目前只能等待。杜比也坦承,他们依然有很多工作要做,还要不断努力。不过,如今已经有非常多的设备支持杜比视界和杜比全景声了。索尼也终于宣布加入杜比视界阵营,杜比的技术人员还表示热烈欢迎与支持。LG此次也推出多款支持杜比视界的OLED电视以及配套的、支持杜比全景声的Soundbar,硬件上已完全不是问题。2017年,相信是HDR内容大爆发的一年,杜比也在其中占有举足轻重的地位啊。
Nvidia Events During 2017 一月: CES 2017 (消费电子展) Booth #3931 January 5-8, 2017 Las Vegas Convention Center (拉斯维加斯会展中心) Las Vegas, NV Citrix Summit 2017 January 9-11, 2017 Anaheim Convention Center (阿纳海姆会议中心) Anaheim, CA 二月: SolidWorks World (3D CAD Event) Booth #628 February 5-8, 2017 Los Angeles Convention Center (洛杉矶会展中心) Los Angeles, CA Spark Summit February 7-9 2017 Hynes Convention Center (波士顿海因斯会议中心) Boston, MA 三月: Game Developers Conference (GDC) 2017(游戏开发者大会) Booth # 824 February 27 - March 3, 2017 Moscone Center (旧金山莫斯康展览中心) San Francisco, CA 四月: ISC West (美国西部安防展) Booth #20075 April 5-7, 2017 Sands Expo (拉斯维加斯金沙会展中心) Las Vegas , NV FIRST Robotics Championship April 19-22, 2017 George R. Brown Convention Center (休斯顿乔治布朗会议中心) Houston, TX 五月: Embedded Vision Alliance Summit (嵌入式视觉联盟峰会) May 1-3, 2017 Santa Clara Convention Center (圣克拉拉会展中心) Santa Clara, CA AUVSI (国际无人载具协会) Booth #519 May 8-11, 2017 Kay Bailey Hutchinson Convention Center (哈钦森会议中心) Dallas, Texas GTC (GPU技术大会) May 8-11, 2017 San Jose Convention Center (圣何塞会议中心) Silicon Valley, CA AI Summit, London (伦敦AI峰会) May 9-10, 2017 Business Design Centre (伦敦商务设计中心) London, United Kingdom Citrix Synergy (思杰合作伙伴大会) May 23-25, 2017 Orlando Convention Center (奥兰多会议中心;) Orlando, FL 六月: E3 2017 (E3游戏展) June 13-15, 2017 Los Angeles Convention Center (洛杉矶会展中心) Los Angeles, CA O'Reilly Artificial Intelligence Conference (奥赖利人工智能会议) June 27-29, 2017 New York Hilton, Midtown (纽约城中央希尔顿酒店) New York City, NY 七月: AI Summit, Hong Kong (香港AI峰会) July 26, 2017 The Mira (香港尖沙咀酒店) Hong Kong, China SIGGRAPH (SIGGRAPH(计算机图形图像特别兴趣小组)会议) Booth #403 July 30 – Aug 3, 2017 Los Angeles Convention Center (洛杉矶会展中心) Los Angeles, CA 八月: VMWorld (VMWorld大会) August 27-31, 2017 Mandalay Bay Hotel & Convention Center (曼德勒湾酒店会议中心) Las Vegas, NV 九月: Strata + Hadoop World (大数据会议) Booth #831 September 26-28, 2017 Javits Convention Center (纽约嘉维茨会展中心) New York City, NY AI Summit, SF (旧金山AI峰会) September 27-28, 2017 San Francisco, CA 十月: Gartner Symposium (Gartner研讨会) October 1-5, 2017 Orlando, FL 十一月: SuperComputing (SC17) (超算大会) November 13-16, 2017 Colorado Convention Center Denver, CO AI Finance Summit, London (伦敦AI金融峰会) November 15, 2017 London, United Kingdom 来源:NVIDIA.com → 关于 NVIDIA → 活动(Events)
Nvidia at CES 2017 【简讯】CES 2017 即将拉开帷幕,太平洋标准时间 2017 年 1 月 4 日 下午 6 时 30 分,在拉斯维加斯,黄仁勋继续登台发表 Keynote。本次展会 NVIDIA 展区的主题包括 人工智能、 自动驾驶汽车、 虚拟现实,以及 游戏。 如果不能来到现场,可以通过 blogs.nvidia.com 观看直播。 VISIT NVIDIA IN THE NORTH HALL Stop by our booth and see the latest breakthroughs in AI, self-driving cars, virtual reality, and gaming. Booth #3931 THURSDAY, JAN. 5 | 10 A.M. - 6 P.M. FRIDAY, JAN. 6 | 9 A.M. - 6 P.M. SATURDAY, JAN. 7 | 9 A.M - 6 P.M. SUNDAY, JAN. 8 | 9 A.M - 4 P.M.
如何看待AMD的宣称:MIOpen下Fiji平New TTX,Vega 10力压?
AMD桌面版Zen处理器“Ryzen”:频率3.4GHz起,8核16线程 2016-12-14 06:12 | 作者:bolvar | 关键字:AMD,Zen,Ryzen,处理器,PPT AMD这两天爆料有点猛,刚刚曝光了新一代Vega显卡,今天还会有针对Zen处理器的公开活动——新地平线,现在正在进行中。AMD的保密工作看起来不太好,制作精美的PPT已经被曝光在网上,首款Zen架构桌面处理器将命名为Ryzen,8核16线程,频率3.4GHz起,L2+L3缓存总计20MB,配套的AM4芯片组将支持NVMe、USB 3.1等新一代技术。AMD桌面版Zen处理器规格确定 曝光这些PPT的还是Videocardz网站,不过它们倒是省事,只有6张图,并没有详细说明,我们还是自己来看看吧。 首先是桌面版Zen处理器的名字,Ryzen这个单词找不到合适的解释,而且这个名字也不见得是上市后的商品名,因为之前的爆料中有说AMD Zen处理器将会以SR7、SR5及SR3的新品牌开卖。 规格方面,AMD确认了Zen处理器是8核16线程,频率3.4GHz起,但没提最高加速频率。缓存方面,L2+L3缓存总计20MB,具体的分配可能是4MB L2缓存,16MB L3缓存,这可比Intel桌面处理器的8MB缓存大多了,不过后者是4核8线程的,单纯对比缓存容量大小也不公平。高精度加速 Zen处理器支持Turbo加速技术没什么意外的,不过现在的频率加速技术更强大,属于细粒度频率控制技术,AMD称之为Precsion Boost加速,配合下面的Puere Power可以优化性能,精确控制到每25MHz精度控制频率。XFR频率扩展 跟上面的高精度频率控制类似,XRR可以进一步提升频率空间,特别针对发烧友来说,他们使用的散热器更高端、更强大,OC玩家还会上水冷甚至LN2液氮,该技术是完全自动的,不需要玩家控制。Pure Power技术 Pure Power从名字上看就知道是功耗管理技术了,可以监视温度、速度及电压,实时自动控制信息以降低功耗。Smart Pretetch智能预读技术 该技术可以实现预读数据智能化,会在本地缓存里保存重要的数据,这样就可以立即使用,提高效率和命中率。AM4平台 Zen处理器会搭配新一代AM4平台,之前我们也介绍过多次了,其中会分为X370、B350、A320等等不同系列,支持DDR4内存没跑了,支持原生PCI-E 3.0,还有USB 3.1 Gen2、NVMe及SATA Express等,具备超高的扩展性及升级性。
欲摆脱ARM依赖 三星开始开发独立处理器核心 【有改动】 腾讯数码讯(编译:Bear)三星电子的半导体部门在今年有了一个大飞跃,公司使用在Galaxy S7 Edge内部的Exynos 8890处理器首次使用了公司的自家处理器核心。而根据内部人士的最新消息称,三星Device Solution部门目前正在开发自己的32位微控制处理器核心,并且很有可能针对可穿戴设备和物联网产品打造。据悉,三星正在开发的处理器核心将基于开源RISC-V指令集架构,而并非是基于ARM的v6-M或最新的ARMv8-M核心,而后两者之前被大量使用在三星的智能手机芯片中。这就意味着未来三星的新产品将无需再向ARM支付授权许可费,而这也是公司的一种战略改变,逐渐摆脱对ARM Cortex核心的依赖而完全自行研发设计。 提到ARM,三星的MCU将使用1万到2万个晶体管,这将使其功耗接近ARM Cortex-M0。而M0和M0+是功耗很低的32位核心,被设计用于将32-bit的性能带给原本倾向于使用低成本的8位AVR组件的情形。三星之前在2013年已经将自己的8位单片机业务卖给了IXYS公司,但是现在随着物联网市场的壮大,三星已经做好了重新回归的打算。 “虽然还需要耐心等待,看看RISC V核心是否有能力取代ARM,我们对于三星这家有着丰富的自行研发定制CPU核心用于移动AP的经验的电子巨头很感兴趣。”一位内部行业代表表示。 RISC-V处理器体系结构是由加州大学伯克利分校下属的BSD许可协议,并且得到了一些主流科技公司的支持。在RISC V基金会中支持者名单包括了谷歌、高通、IBM、NVIDIA等科技厂商,并且提供了免费、开源的编译器,以及ISA开发环境。事实上,NVIDIA和高通已经开始使用RISC-V体系分别来开发自己针对物联网设备打造的芯片和GPU的内存控制器。 虽然目前RISC-V目前在速度和兼容性上还有一定的差距,但是其低廉的成本以及免费又开源的特性,无疑让其拥有非常大的潜力。尤其考虑到未来越来越多的低成本单片机开发。毕竟目前一个基于32位Cortex-M0的STM32F0单片机的售价已经不到2美元。 据悉,三星已经从今年上半年开始单片机CPU的开发,而独立开发的核心将在明年首次被使用在商业产品中。 来源:androidauthority
前進 Data Center 市場,Qualcomm Centriq 2400 開始送樣 By Chris.L on 2016-12-08 in 硬體零組件, 處理器 講有好長一陣子,Qualcomm 終於公佈第一款針對 Data Center 設計的產品。 Anand Chandrasekher,Qualcomm 資深副總裁兼 Qualcomm Datacenter Technologies(QDT)總經理終於出來見客,並帶來採用 10nm FinFET 製程的 Data Cater 產品 – Qualcomm Centriq 2400。Qualcomm Centriq 2400 是基於 ARMv8 架構客製化的 Falkor 處理器,最高可以配置 48 顆核心處理器。 如果沒有意外的話,這次 Qualcomm Centriq 2400 使用的是 Samsung Electronics 的 10nm FinFET 製程,與即將正式發表的 Qualcomm Snapdragon 835 相同。目前 Qualcomm Centriq 2400 已經可以運行 Linux 和 Java 的 Apache Spark 和 Hadoop,而產品已經開始提供樣品,但商品商用最快要等到 2017 下半年度。
AMD 為 Zen 處理器舉行「新視界」預覽活動 By Chris.L on 2016-11-30 in 硬體零組件, 處理器 對於 2017 年,AMD 準備了不少新產品,但現在只是等時間到。 AMD 確定會在 2016 年 12 月 13 日下午 3 時(美中時間)為其新款 Zen 處理器進行預覽活動,而這場名為「新視界」的活動將由加拿大遊戲玩家 Geoff Keighley 主持。 這場直播活動將結合遊戲進行,這部分可能跟時下熱門的 eSports 遊戲有關。Zen 處理器的正式登場時間並沒有改變,AMD 會在 2017 年第一季發表 Zen 處理器,並搭配 AM4 平台。在 AMD 之前,Intel 將會在 2017 年 1 月 5 日發售桌上型電腦用的第 7 代處理器。
Core-i3 7350K, 2C4T, 4.0 GHz / 4.2 GHz, $ 177(预订)
[161105] 显存的功耗到底占了显卡的多少呢? SC15 大会上,Nvidia 首席架构设计师 Stephen W. Keckler 强调,随着显存带宽的增加,其对显卡功耗的增加将会变得不容忽视。下面的图片给出了不同显存在不同带宽下的功耗对比。不过从 Stephen 的演讲内容来看,这张图的正确读图方式比较奇怪,应该是从图上读显存带宽应该是贴近每一个柱的最右端读数的。由图可知,256 GB / s 的 GDDR5(GTX 1070),其功耗占大约 60 W。Tesla P100 的 HBM 2(720 GB / s),功耗估计在 35 W ~ 40 W 之间。而 Fiji 核心搭配的 HBM (512 GB / s),其功耗为 25 W;按照路线图,Volta 架构的最大显存带宽达到 1.2 TB / s,这时 HBM 2 显存的功耗也会达到 60 W(HBM 3 大约在 2019 ~ 2020 年才会量产)。如果继续用 HBM 2 实现 2.5 TB / s 的带宽(可能是超频?),其功耗会达到 120 W;假若能将 HBM 2 的能效增加到原来的 1.5 倍,在输出超过 4 TB / s 的显存带宽时,其功耗甚至可以超过 160 W。 Nvidia 正在尝试解决这场显存功耗的危机。Pascal 和 Volta 架构中,HBM 2 显存占的功耗并不算太多。不过到了 2020 年,Nvidia 未公布代号的新架构很可能会采用新的显存架构来缓解显存功耗的需求。现在,镁光和三星也已经在着手研发新的显存和内存颗粒了。GDDR6 每针带宽可以冲击 14 Gbps,电压从 GDDR5 的 1.5 V 降低到 1.35 V;而每 Gbps 的功耗会下降 30 % 以上。三星和海力士也已经投入研制 HBM 3 ,新的 HBM 将在相近的功耗下实现 2 倍或以上的容量或带宽。与此同时,成本更低的面向消费级的 HBM 1.5 或许有希望使 HBM 显存不再是顶级显卡独占。 对于 LPDDR5,应该就没有那么快了。因为在此之前还有 LPDDR4X,三星、海力士、镁光都有相关的规划,至于相比于LPDDR4有何不同,不同点就在于速度从原来的 3733 Mbps 提高到 4266 Mbps,电压则维持不变(1.1 V)。关于 DDR5 内存,他们的设想是单条容量最小为 8 GB、最大容量为 32 GB(32 GB × 4 = 128 GB 的内存,有点逆天),带宽最高为 6.4 Gbps,比 DDR4 足足提升了 100 % ,但是在电压上则是维持了在 1.1 V,与 DDR4 持平,可以说设想 DDR5 的进步是历史上的第一次飞跃。而关于 DDR5 内存的量产,美光则计划在 2019 年开始,而三星则会在 2018 年就行动起来了(不能输!)。
[161105] 显存的功耗到底占了显卡的多少呢? SC15 大会上,Nvidia 首席架构设计师 Stephen W. Keckler 强调,随着显存带宽的增加,其对显卡功耗的增加将会变得不容忽视。下面的图片给出了不同显存在不同带宽下的功耗对比。不过从 Stephen 的演讲内容来看,这张图的正确读图方式比较奇怪,应该是从图上读显存带宽应该是贴近每一个柱的最右端读数的。由图可知,256 GB / s 的 GDDR5(GTX 1070),其功耗占大约 60 W。Tesla P100 的 HBM 2(720 GB / s),功耗估计在 35 W ~ 40 W 之间。而 Fiji 核心搭配的 HBM (512 GB / s),其功耗为 25 W;按照路线图,Volta 架构的最大显存带宽达到 1.2 TB / s,这时 HBM 2 显存的功耗也会达到 60 W(HBM 3 大约在 2019 ~ 2020 年才会量产)。如果继续用 HBM 2 实现 2.5 TB / s 的带宽(可能是超频?),其功耗会达到 120 W;假若能将 HBM 2 的能效增加到原来的 1.5 倍,在输出超过 4 TB / s 的显存带宽时,其功耗甚至可以超过 160 W。 Nvidia 正在尝试解决这场显存功耗的危机。Pascal 和 Volta 架构中,HBM 2 显存占的功耗并不算太多。不过到了 2020 年,Nvidia 未公布代号的新架构很可能会采用新的显存架构来缓解显存功耗的需求。现在,镁光和三星也已经在着手研发新的显存和内存颗粒了。GDDR6 每针带宽可以冲击 14 Gbps,电压从 GDDR5 的 1.5 V 降低到 1.35 V;而每 Gbps 的功耗会下降 30 % 以上。三星和海力士也已经投入研制 HBM 3 ,新的 HBM 将在相近的功耗下实现 2 倍或以上的容量或带宽。与此同时,成本更低的面向消费级的 HBM 1.5 或许有希望使 HBM 显存不再是顶级显卡独占。 对于 LPDDR5,应该就没有那么快了。因为在此之前还有 LPDDR4X,三星、海力士、镁光都有相关的规划,至于相比于LPDDR4有何不同,不同点就在于速度从原来的 3733 Mbps 提高到 4266 Mbps,电压则维持不变(1.1 V)。关于 DDR5 内存,他们的设想是单条容量最小为 8 GB、最大容量为 32 GB(32 GB × 4 = 128 GB 的内存,有点逆天),带宽最高为 6.4 Gbps,比 DDR4 足足提升了 100 % ,但是在电压上则是维持了在 1.1 V,与 DDR4 持平,可以说设想 DDR5 的进步是历史上的第一次飞跃。而关于 DDR5 内存的量产,美光则计划在 2019 年开始,而三星则会在 2018 年就行动起来了(不能输!)。
14nm / 10nm FinFET LPU,Samsung Electronics 再推新製程技術 By Chris.L on 2016-11-03 in 製造、設計與半導體 Samsung Electronics 在製程部分與 TSMC 互有抗衡,但營收就… 11 月 3 日,Samsung Electronics 釋出新聞稿,宣布推出第四代 14nm FinFET 與第三代 10nm FinFET 製程技術。在 14nm FinFET 方面 Samsung Electronics 提供 LPE(Low-Power Early)、LPP(Low-Power Plus)、LPC(Low-Power Compact)以及最新的 14nm FinFET LPU 製程;10nm FinFET 則是從 LPE、LPP 到最新的 LPU 製程。 Samsung Electronics 14nm FinFET LPU 主要使用應用於高效能與密集型運算應用市場。簡單來說,LPE 推進至 LPP 是功耗與效能的改善,LPC 與 LPU 是在 LPE 的效能基準下,將成本分別再往下做出調整的產品。14nm FinFET LPU 與 10nm FinFET LPU 相關製程設計工具(PDK)預計會在 2017 年第二季度釋出了;Samsung Electronics 在 10 月份公佈 10nm FinFET 製程 SoC 進入量產。 另一方面,Samsung Electronics 同時更新 7nm EUV 製程開發進度,並展示 7nm EUV 的晶圓。
F-789SGA(升过级的)较大几率闪屏 一楼
18W 與 4 + 2 配置,Intel Kaby Lake-H 處理器 2017 第二季端出 By Chris.L on 2016-10-22 in 硬體零組件, 處理器 Coffee Lake 會接替 Kaby Lake,但中間似乎又有些變數出現。 Intel 第 7 代 Core 系列處理器中的 Y 與 U 系列已經開始出貨,而 H 和 S 系列(桌上型電腦)部分則要到 2017 年第一季才會在市場上買到。 不過,U 系列以及即將登場的 H 系列會有新朋友與大家見面。 首先是 U 系列部分,Intel 似乎打算 refresh 一下 Kaby Lake-U 系列產品,讓這系列只有 2C4T 的處理器,增加 4C8T 選項。目前不確定確切的處理器型號,但可以肯定其 Die Size 在 122mm²,並搭配 Gen9 的 Intel GFX。從時間點來看,Kaby Lake-R U 4+2 會在第一季進入 ES,第二季 QS,實際 RTS 則要到 2017 年第三季。 跟著是 Kaby Lake-H 部分,除了目前的 45W 系列外,Intel 打算加入全新的 18W 產品。根據 Intel 的說法,推出 18W 系列處理器主要是客戶對此有需求,特別是追求更輕薄的效能型機種部分。45W 的 Kaby Lake-H 系列處理器會在 12 月開始供貨,而 18W 部分則要到 2017 年第二季度。18W 的 Kaby Lake-H 系列處理器維持 4 + 2 配置,而如此做法不免讓人想到過去 Intel 第 4 代 Core 系列處理器中,尾號為「M」的產品,然而當時的「M」系列處理器 TDP 最低為 37W,遠遠高於 Kaby Lake-H 的 18W。其實就 18W TDP 來說,它也僅比 Kaby Lake-U 系列中的 Core i7-7500U 要高出 3W 而已。相較於 TDP 的數字,更讓人在乎的是它所來的表現,到底與 U 系列有多大差異。
1
下一页