您的位置 首页 主动

深度学习算法有望在FPGA和超级核算机上运转

深度学习算法有望在FPGA和超级计算机上运行-由NSF资助的一个研究项目,目前正在研究如何使用RDMA高性能连接器将深度学习算法在FPGA和跨系统之间运行;另一个由Andrew Ng和两个超算专家牵头

跟着人工智能技能的开展,各大科技公司都加大在深度学习上的投入,而作为美国国家科学基金会也相同如此,当下,它经过赞助美国几所大学的研究人员,促进深度学习算法在FPGA和超级核算机上运转。尽管现在看到的还仅仅代表了深度学习的一个趋势,可是跟着各大科技公司的商业运营以及更多的深度学习走进大学研究中心以及国家实验室,对深度学习的开展起到活跃的促进作用。

以下为原文:

机器学习在曩昔的几年里取得了很大的前进,在很大程度上归功于核算密集型作业负载扩展新技能的开展。NSF最新的赞助项目好像暗示咱们看到的或许仅仅冰山一角,因为研究人员企图将相似深度学习的技能扩展到更多的核算机和新式的处理器上。

由纽约州立大学石溪分校团队施行的一个特别风趣项目,该项目旨在证明FPGA(现场可编程门阵列)优于GPU,他们发现深度学习算法在FPGA上可以更快、更有效地运转,这打破了当前传统的知道。

依据项目概要:

研究人员估计在GPU上算法的最慢部分,运转在FPGA大将完成显着的加速,一起,在GPU上算法最快的部分在FPGA大将有相似的运转功能,可是功耗会极低。

实际上,除了不同于GPU,在硬件上运转这些模型主意并不别致,例如,IBM最近凭仗一个新的brain-inspired芯片轰动一时,它宣称可以完美支撑神经网络和其他cogniTIve-inspired作业负载。微软在本年7月演示了它的Adam项目,这个项目是从头修改了一个盛行的深度学习技能使其在通用英特尔 CPU处理器上运转。

因为其可定制的特色,FPGA有着共同的优势,本年6月,微软解说它怎么经过卸载某些进程部分到FPGA来加速Bing查找。当月晚些时候,在Gigaom的Structure大会上,英特尔宣告行将推出的混合芯片架构将FPGA在CPU共置在一起(实际上它们会同享内存),这首要针对专业大数据负载与微软必应这样的事例。

可是,FPGA关于深度学习模型来说并不是仅有的、潜在的根底架构挑选。NSF还赞助纽约大学的研究人员,让他们经过根据以太网长途直接内存拜访技能来测验深度学习算法以及其他作业负载,这在超级核算机上广泛运用,但现在要将它带到企业体系,RDMA连接器经过直接发送音讯到内存,避免了CPU、交换机和其他组件给进程带来的推迟,然后加速核算机之间传输数据速度。

提到超级核算机,另一个新的NSF赞助项目,由机器学习专家斯坦福大学(百度和Coursera)的Andrew Ng和超级核算机专家田纳西大学的Jack Dongarra以及印第安纳大学的Geoffrey Fox领导,旨在使深度学习模型使用Python可编程,而且将它带到超级核算机和扩展云体系。据悉,这个得到了NSF将近100万美元的赞助的项目被称为Rapid Python Deep Learning Infrastructure。

RaPyDLI将被构建成一套开源的模块,可以从Python用户界面拜访,可是可以放心肠在最大规划超级核算机或云的C / C++或Java环境中经过互动剖析和可视化履行。RaPyDLI将支撑GPU加速器和英特尔Phi协处理器以及广泛的存储技能包含Files、NoSQL、HDFS和数据库。
现在做的一切作业都是让深化学习算法更简单而且改进它们的功能,这三个项目仅仅一小部分,可是假如这些技能可以被科技巨子用到商业范畴,或许进入研究中心以及国家实验室使用核算机处理真实的复杂问题将是十分有利的。

声明:本文内容来自网络转载或用户投稿,文章版权归原作者和原出处所有。文中观点,不代表本站立场。若有侵权请联系本站删除(kf@86ic.com)https://www.86ic.net/ziliao/zhudong/179660.html

为您推荐

联系我们

联系我们

在线咨询: QQ交谈

邮箱: kf@86ic.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部