干货 | 加速AI发展!一文了解GPU Computing

  • 时间:
  • 浏览:1
  • 来源:彩神11选5_神彩11选5官方

过去是人找信息,现在则转变为信息找人。我们我们我们我们 可能都用过快手可能抖音类事的小视频APP,哪些地方地方小视频的肩上,一定会神经网络算法在支撑。你在使用那我推荐引擎的同時 ,可能有几五个模型在对你进行评估,五年前可能只是我sensing,感知你的需求,现在是从各种维度对你进行评估,多方面平衡,不光要吸引人点击,还要你等待歌曲足够长的时间;而吸引人点击和吸引人等待歌曲的算法又有很大的差别。

我们我们我们我们 现在的做法是把实车里的模型拿到server farm里,我想要在服务器里的深层仿真的模拟环境下进行训练,在训练的过程中产生新的数据,很久用哪些地方地方数据再去训练新的模型。通过你这个做法来尝试加速对自动驾驶车辆模型的训练。

以视网膜扫描为例。我们我们我们我们 常说眼睛是心灵的窗户,事实上眼睛也是身体的窗户,人眼的视网膜上分布着充沛的毛细血管,通过扫描视网膜,还还要检测到人身体上的一点疑问,比如糖尿病的次生灾害之一只是我视网膜的病变,以及心血管疾病。

人工智能比较常用的应用场景除了互联网之外,还有自动驾驶、医疗、电信等等。

没有 怎样把哪些地方地方看似高高在上的人工智能算法和还比较昂贵的算力,以及比较慢获取的数据,变得更加容易,这是我们我们我们我们 过去可能做了的以及接下来的时间里要去做的工作。

以TensorRT为例,NVIDIA TensorRT是五种高性能神经网络推理(Inference)引擎,用于在生产环境中部署深层学习应用应用程序,应用有图像分类、分割和目标检测等,可提供最大的推理吞吐量和时延。TensorRT是第一款可编程推理加速器,能加速现有和未来的网络架构。通过TensorRT的大幅度加速,服务提供商还还可以以经济实惠的成本部署哪些地方地方计算密集型人工智能工作负载。

原文发布时间为:2018-09-3

2. 医疗



在英伟达初创加速计划的会员中,有很大一偏离 一定会人工智能+医疗的项目。医疗项目的一大挑战是诊断。目前来讲还是比较慢通太深层学习来做诊断,但市场仍然很大。根据一点相关报告上的数据,对于一点慢病诊断,使用深层学习算法进行辅助完后 ,还还要将准确率提高100%-40%,同時 成本下降一半。

在AI应用场景的分享完后 ,主讲人赵立威还向我们我们我们我们 完整篇 介绍了NVIDIA的新品Quadro RTX,它还还可以帮助游戏和电影行业实现实时的光线追踪和渲染。最后,他以英伟达在硅谷的新办公大楼“Endeavor”和“Voyager”作结,表达了英伟达在人工智能领域将不断努力,并期待人工智能技术带领人类走入未知领域的愿景。

图源:pixabay.com

1. 推荐引擎

所谓GPU Computing一定会那我单单拼硬件的事,怎样来把哪些地方地方算力用到人工智能算法和实际应用场景下才是大多数人应该关注的重点。我们我们我们我们 提到英伟达可能都着实是一家芯片公司,但着实我们我们我们我们 公司全球一共最少有一万两千人;其中一万一千人一定会工程师,在哪些地方地方工程师里,七千个一定会软件工程师,我们我们我们我们 同時 来搭建和完善基于GPU Computing的人工智能生态。

国内几乎所有大的互联网公司,一定会训练个人的推荐模型,做到千人千面。推荐对于哪些地方地方公司是非常重要的,可能互联网变现几乎都和推荐有关,电商类并不,食品移觉如国内的快手、抖音,国外的Netflix、Hulu,资讯类的比如Google news、今日头条,还有音乐类,社交类等等。用户的使用又在给公司提供新的数据,还还要用于训练更有效的模型。你这个方面提升了用户体验,但个人面可能造成用户无法脱离哪些地方地方产品。

3. 自动驾驶

NVIDIA于2018年3月在GPU技术大会上推出了HGX-2 平台,以及以HGX-2为架构的 DGX-2服务器。它是一件高密集,强性能并具有极佳的热性能的电子产品。DGX-2架构的核心是NVSwitch内存社会形态,本质上,NVSwitch社会形态为GPU节点创建了那我512 GB的巨大的共享内存空间,以 10 千瓦的功耗,在TensorCore上达到近2Petaflops的算力。

HGX-2 平台的内嵌 NVSwitch 拓扑社会形态的框图(图源:NextPlatform)





我们我们我们我们 都知道在摩尔定律的初期25年间,实现了性能5年10倍,25年7万倍的提升。这是摩尔定律在CPU年代为我们我们我们我们 带来的计算力的提升。很久这对于人工智能模型对计算力的需求是远远匮乏的。很久,为了满足你这个计算力的需求,我们我们我们我们 不断地在GPU层面打磨我们我们我们我们 的技术,提升各方面的性能。在那我的基础之上,我们我们我们我们 也看了不需要 的人开始基于CUDA去编程训练个人的模型,Google、Facebook等也基于CUDA构建个人的开源深层学习平台。

我们我们我们我们 都知道著名的摩尔定律,其内容是当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-2那我月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-2那我月翻一倍以上。你这个定律揭示了信息技术进步的时延。很久根据OPEN AI的今年年初的测算,从AlexNet老会 出现完后 ,到去年年底一共最少5年的时间,在人工智能模型的训练层面,我们我们我们我们 对于计算力的需求提升了100万倍。

目前来说,人工智能的应用场景比较多的集中在Consumer Internet,国内以BATJ、TMD为代表,美国主只是我方佳、苹果55、微软和Netflix等等。哪些地方地方公司是人工智能领域的第一批先锋,我们我们我们我们 在你这个领域投入了极少量的资金,堆积了全都的算力,把业内最有名的博士都招到我们我们我们我们 公司,我们我们我们我们 的每那我服务动辄就每天上亿的使用量(DAU,Daily Active User),很久又收集了极少量的数据。李彦宏在2018 Create百度开发者大会上提到那我Intelligent Chasm的概念,还还要理解为智能沟壑,说的是和哪些地方地方头部公司所堆积的算力以及数据相比,全球一点所有公司的算力加起来可能也只是我跟我们我们我们我们 差不需要 的规模,甚至还不如。你这个算力和数据的差距像天堑一样。

英伟达™精视™ (NVIDIA® GeForce®) GTX 5100

在这完后 ,我们我们我们我们 经历了近似寒武纪时期的神经网络模型大爆发的时代。2012年完后 ,我们我们我们我们 着实老会 在研究,很久没有 足够的算力来支撑哪些地方地方算法,很久新的计算依据GPU Computing的老会 出现,支撑了类事型的神经网络模型的训练;从而促成了各种模型的爆发式增长,进而进入到人工智能的时代。

本文来自云栖社区合作协议协议伙伴“人工智能学家”,了解相关信息还还要关注“人工智能学家”。

我们我们我们我们 可能都听说过Alex Krizhevsky,他在博士期间设计了人类历史上第那我真正意义上的深层神经网络AlexNet——一共是五个学习层,中含六千万个参数。他的导师Hinton(被称为“神经网络之父”)并不支持他将你这个作为博士论文的研究方向,可能当时的计算一定会基于CPU的计算依据,那我的神经网络模型训练一次就要十好多个 月的时间;很久要手动调参,再重新训练,那我反复下来,我想要得到那我靠谱的神经网络模型,最少还要几十遍;运气好的完后 十几遍的训练次数,可能最少数十年的时间。很久Alex作为那我典型的Geek并不放弃,在学习数学之余他还学习了极少量与编程相关的知识,其中就包括CUDA。

Alex用CUDA重新对他的模型进行编程,很久买了两块当时非常强大的显卡GTX5100,花了6天时间训练AlexNet,很久不断调优和完善。很久参加了李飞飞主导的ImageNet大赛,很久获得了当年的冠军。AlexNet当时还还可以达到的图像识别精度,遥遥领先于第二名。大赛完后 ,Alex和他的导师Hinton成立了公司,你这个公司十好多个 月完后 被Google以4亿美金收购。这是那我靠GPU创富的故事,还还要看了,GPU与深层神经网络的第一次结合创造了4亿美金的价值。

二、AI行业案例分享

在国内,还还可以通过视网膜扫描来进行诊断的医生比较少;很久在国内,偏离 医生是没有 下诊断的。通太深层学习技术,还还要将哪些地方地方医生的经验进行收集,从而辅助诊断。目前这项技术还比较慢应用到医院里,很久一点保险公司非常我想要通过你这个技术,来获得客户患病概率的一点信息,从而辅助制定保单金额。

为了进行自动驾驶的研发,英伟达有个人的那我server farm。你这个server farm内有 100台DGX-1,具有那我E(1E=1024P=1024*1024T)的浮点运算能力,用于自动驾驶模型的训练。一千公里车在外面跑一天,会产生上T的数据量,一年可能是上P的数据量。但即使是那我,仅仅靠实车上路收集数据也远远匮乏,根据估算,自动驾驶车辆最少要跑7万英里,还还可以勉强满足上路的标准。就现在而言,自动驾驶的车辆脱把率并不高,Google的自动驾驶车辆最少是几千英里还要扶一次方向盘,一点的情况报告也基本一样。

如今,我们我们我们我们 还还要使用Caffe、TensorFlow、Theano等等开源的深层学习平台来进行实现个人的算法,也还还要在CUDA上进行编程。人工智能研究领域的头部公司,我们我们我们我们 现在推荐的算法模型可能达到了相当简化的程度,那我模型还还要达到那我T甚至十好多个 T的规模,中含几十亿甚至上百亿个参数,数据量更是可想而知。那我的模型训练起来难度就越发高。很久,三算就那我纠缠在同時 ,互相有益于、互相提升。

CUDA是NVIDIA创造的那我并行计算平台和编程模型。它利用图形除理器(GPU)能力,实现计算性能的显著提高。NVIDIA是在1006年推出的CUDA,自那完后 ,股价从最初的7美元一路攀升到现在的2100多美元。