NVIDIA GTC主题演讲:专注于AI

NVIDIA GTC主题演讲:专注于AI

功能| 2017年5月11日

NVIDIA首席执行官黄仁勋(Jensen Huang)在2017年GPU技术大会上的主题演讲今天举行,重点讨论了新型Tesla Volta V100以及机器学习和人工智能的前景。

该行业领域的增长是显而易见的。英伟达’多年来,该会议的发展迅猛,过去三年来参加圣何塞会议的人数增加了两倍。这反映了CUDA开发人员总数的增加,黄将其固定在50,000以上—五年前增长了10倍。

We’ve记录了视觉效果行业中GPU处理的使用增加,特别是因为GPU中的处理能力已经超过了CPU。话虽这么说,与机器学习相比,用于机器学习,人工智能和神经网络的GPU的使用已大大增加。

所以今天在圣何塞的流行语是“AI”,今天的主题演讲和公告中仍有许多有趣的内容,包括Iray AI,Mental Ray for 3DSMax的改进等等。 NVIDIA的工作人员还提到了vfx并发布了更接近SIGGRAPH的相关公告,后者更加关注行业。

首款Volta GPU即将面世

全新NVIDIA Tesla V100 GPU

Huang宣布NVIDIA推出首款GPU’全新的Volta架构,Tesla V100数据中心GPU。这是“Pascal”建筑,在去年宣布’s GTC.

规格令人印象深刻:

  • 12纳米制造工艺中的210亿个晶体管
  • 整体尺寸815mm²—关于Apple Watch的大小
  • 5,120个CUDA内核
  • 7.5 teraflops的处理能力,可用于64位浮点运算(CUDA)
  • 15位触发器的处理能力,用于32位浮点运算(CUDA)
  • 640个Tensor核心(为AI工作流程设计的新核心)
  • Tensor内核提供120 teraflops的深度学习性能,实际上相当于100个CPU的性能
  • 900 GB /秒HBM2 DRAM
  • NVLink (card to card inter-connection) now provides 300GB/sec of bandwidth, an increase from 帕斯卡’s 160GB/sec

作为一般基准,此GPU架构可将CUDA操作的性能提高1.5倍。 V100中的5120 CUDA内核与TITAN Xp或Quadro P6000中的3840内核相比。

新的Tensor内核是专门为深度学习而设计的,提供了一个4-4矩阵数组,可并行处理计算。对于AI而言,新的Tensor内核与上一代Pascal GPU上使用CUDA相比,性能提高了5倍。

CEO Jason Huang shows a comparison in deep learning performance in hours on the Kepler, 帕斯卡, and Volta architectures. Shorter is better.

特斯拉V100 GPU可能会在新的149,000美元中首次亮相 DGX-1超级计算机 预计于今年第三季度发货。我们什么时候可以期望台式机使用基于Volta的GPU?它’很难说,尤其是在HBM2 DRAM的供应有所限制以及NVIDIA过去遵循各种时间表的情况下。去年,Pascal架构于去年5月的GTC 2016上宣布,Titan X于8月的第一周宣布。让’希望NVIDIA提供一些有关SIGGRAPH的GPU好消息。

 

深度学习和视觉特效

虽然人工智能和深度学习似乎已经成为GTC的重点,但是’s并不是说vfx和post被忽略。离得很远。展区有很多以VR为中心的公司,并且有很多“VR Village”与会者可以在其中演示各种VR体验。

现实情况是,深度学习和神经网络肯定会在未来数月和数年内对视觉效果行业产生影响。上周在FMX上走来走去,并与与会者聊天,机器学习和AI是一个常见的话题。

在GTC的主题演讲“ 数字领域”之后的几个小时’道格·罗布尔(Doug 罗布)发表了题为“在视觉效果中探索机器学习”。他承认这是视觉效果领域中的一个新探索领域,但他对此非常感兴趣。有很多机会将机器学习应用于vfx管线,从诸如去噪,角色装配到技术色彩校正等任务,等等。 。

罗布 says his inspiration for exploring machine learning was a paper entitled 使用回归森林进行数据驱动的流体模拟 (pdf下载链接)。它最初在SIGGRAPH Asia 2015上展出,提出了一种使用机器学习来加速仿真的方法。它’绝不是完美的方法,而是明智的探索之路。这里’一部显示结果的电影:

数字领域’s Lucio Moser是将在SIGGRAPH 2017上发表的论文的主要架构师 假面舞会:头戴式摄像机运动捕捉数据的精细细节。该团队从Bickel在2008年和Bermano在2014年完成的工作开始,并将其适应于机器学习。

基本概念是使用低分辨率的头戴式摄像机Mocap点扭曲演员的高分辨率中性姿势’的脸,以实现动画效果。这种方法的一个大问题是缺少细节,例如使结果可信的皱纹和瑕疵。

为了解决此问题,DD的团队捕获了演员的高分辨率网格,在其捕获阶段执行各种动作。“From that,” says 罗布, “我们基本上建立了一个小的机器学习过程,说‘if you see the actor’然后在配置中添加这些细节(来自高分辨率捕获)。”因此,对机器学习的有效输入是网格的低分辨率版本,输出是将其获取到高分辨率网格的偏移量。他们发现这种方法有效“根据罗布的说法,真的很好“它提供了这种非常微妙的性能,具有很多平滑度,但具有我们想要的所有细节。”

罗布’对本文的概述很简短,所以如果您’d想了解更多信息,请确保今年夏天在洛杉矶SIGGRAPH上查看他的演讲。

作为参考框架,使用机器学习的另一个例子是乔纳森·汤普森(Jonathan Tompson),克里斯托弗·施拉赫特(Kristofer Schlachter),巴勃罗·斯普雷希曼(Pablo Sprechmann),肯·佩林(Ken Perlin)发表的论文 利用卷积网络加速欧拉流体模拟 (下载pdf链接).

这些只是一些研究示例,这些示例说明了GTC所看到的趋势可能会如何影响整个行业的发展。

 

 

 

2回应“NVIDIA GTC主题演讲:专注于AI”

  1. 尼尔·罗伯茨

    815mm x 815mm?那’是一款大型Apple WatchðŸ™,

    回复

发表评论