秒杀英特尔至强,NVIDIA的深度学习超级计算机强在哪?‘乐鱼体育app’

  • 时间:
  • 浏览:1129
  • 来源:乐鱼体育app
本文摘要:硬件和算法在人工智能领域的发展可以说各占一半,但在芯片水平上,业界的完全观点完全一致——GPU在人工智能深度自学算法中的重要性远远高于CPU。

硬件和算法在人工智能领域的发展可以说各占一半,但在芯片水平上,业界的完全观点完全一致——GPU在人工智能深度自学算法中的重要性远远高于CPU。也就是说,NVIDIA在人工智能领域的受欢迎程度甚至超的确,GPU是目前训练深度自学神经网络最受欢迎的方法,该方案已经受到谷歌、微软公司、IBM、丰田、百度等企业的关注,GPU制造商在最近两年逐渐成为众企业崇拜的对象。作为GPU领域的意义主导者,NVIDIA最近动作频繁,今年年初公司为深度神经网络发售TeslaPP100级GPU,发表了基于该GPU的单体箱深度自学超级计算机-NVIDIA的DGX-1。

现在这台深度自学超级计算机已经登场,NVIDIA首席执行官黄仁勋前几天把DGX-1交给面具创立的人工智能项目OpenAI,OpenAI用DGX-1做什么项目?如何使用它?我不知道,这台深度自学的超级计算机是什么?有什么赶牛的地方。深度自学超级电脑有哪些?顾名思义,深度自学超级计算机是深度自学和超级计算机的结合体。

我们熟悉的天河1号和天河2号都是超级计算机。当然,不仅如此,一般来说,没有高性能计算的计算机可以被视为超级计算机,如NVIDIA的Tesla系列。深度自学神经网络,特别是数百层神经网络对计算和吞吐能力的市场需求非常低,GPU处理简单运算具有天然优势:具有优异的浮点计算性能,可同时确保分类和卷积性能和精度。

配备GPU的超级计算机已经成为训练各种深度神经网络的自由选择。例如,在谷歌Brain项目中,其三台机器配备了12个GPU,性能超过了包括1000个节点在内的CPU群的水平。NVIDIADGX-1的性能如何?黄仁勋回答说,3000人花了3年才开发出这样的DGX-1,深度自学超级计算机开发的可玩性很大。

根据NVIDIA官方说明,DGX1的规格如下:半精度(FP16)的峰值性能最低约为170Teraflopsops;8个TertlaP100GPU加速器,每个GPU都在16GB中留下;NVLinkHybridCuberidCubermeshosh(NVLink混合立方网格);7TB固态硬盘DL高速缓存;双万兆以太网,四路Infinininiband网络连接;功耗:3200W。NVIDIA将这些硬件设计在一个底盘内,因此DGX-1被称为单底盘深度自学超级计算机。TeslaP100有153亿个16nm的FinFET晶体管,其核心面积超过610mm,根据黄仁勋的不同意见,该GPU是迄今为止仅次于的芯片。

DGX-1构建的8个16GBRAMGPU吞吐量相当于250台传统式服务器的层面,其配备的7TB固态硬盘用以储存神经网络培训的大量原始数据。除此之外,DGX-1系统还包含一套深度自学软件,即深度自学GPU培训系统(DIGITS),可以作为设计深度神经网络工程师(DNN),据了解,DGX-1可以将深度自学的培训速度放慢75倍,将CPU性能提高56倍。这是什么概念?英特尔双路至强系统需要250多个节点和150小时训练Alexnet,DGX-1需要1个节点2小时,后者在性能和节点总带宽方面具有显着优势。当然,在性能的提高下,功耗超过3200W,售价达到129000美元。

GPU是唯一的自由选择吗?GPU比CPU有一定的优势,但在FPGA和神经网络芯片面前,GPU仍然相当差。有研究者的测试,与GPU相比,FPGA的结构更加灵活,单位的能源消耗性能更强。

深度自学算法需要更慢、更有效地运营FPGA,而且功耗也更低。英特尔为此推出了FPGA和CPU的混合芯片结构。另一个研究方向是神经网络芯片,该领域的代表是科学IBM的TrueNorth和寒武纪的DianNao。根据模拟实验测试的结果,使用DianNaoYu命令集的寒武纪深度自学处理器与x86命令集的CPU相比,提高了2个数量级的性能,IBM的Truenorth中含有54亿个低成本晶体管神经元芯片,功耗低至700毫瓦,性能和功耗优化达到了新的高度。

寒武纪神经网络处理器研究人员、中国科学院计算技术研究所研究人员陈云智说:加快芯片是神经网络芯片的最后形态。但理想甜美,现实骨感!目前,GPU是唯一构建大规模应用的方案,FPGA和神经网络芯片想取代GPU的地位不能说道路很长!原始文章允许禁止发布。

下一篇文章发表了注意事项。


本文关键词:乐鱼体育app,乐鱼体育手机版,乐鱼官方网站

本文来源:乐鱼体育app-www.tazebilgi.net