您的位置 首页 电源

详解人工智能芯片 CPU/GPU/FPGA有何差异?

CPU与GPU在各自领域都可以高效地完成任务,但当同样应用于通用基础计算领域时,设计架构的差异直接导致了两种芯片性能的差异。

  在深度学习的范畴里,最重要的是数据和运算。谁的数据更多,谁的运算更快,谁就会占有优势。因而,在处理器的挑选上,能够用于通用根底核算且运算速率更快的GPU敏捷成为人工智能核算的干流芯片。能够说,在曩昔的几年,尤其是2015年以来,人工智能大迸发便是因为英伟达公司的GPU得到广泛应用……

  一、人工智能与深度学习

  2016年,AlphaGo与李世石九段的围棋对决无疑掀起了全国际对人工智能范畴的新一轮重视。在与李世石对战的5个月之前,AlphaGo因打败欧洲围棋冠军樊麾二段,围棋等级分上升至3168分,而其时排名国际第二的李世石是3532分。依照这个等级分数对弈,AlphaGo每盘的胜算只要约11%,而成果是3个月之后它在与李世石对战中以4比1大胜。AlphaGo的学习才能之快,让人惊慌。

  1.人工智能:让机器像人相同考虑

  自AlphaGo之后,“人工智能”成为2016年的热词,但早在1956年,几个核算机科学家就在达特茅斯会议上初次提出了此概念。他们梦想着用其时刚刚呈现的核算机来结构杂乱的、具有与人类才智相同本质特性的机器,也便是咱们今天所说的“强人工智能”。这个无所不能的机器,它有着咱们一切的感知、一切的理性,乃至能够像咱们相同考虑。

  人们在电影里也总是看到这样的机器:友爱的,像星球大战中的C-3PO;凶恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,咱们还无法完结它们,至少现在还不可。

  咱们现在能完结的,一般被称为“弱人工智能”。弱人工智能是能够与人相同,乃至比人更好地履行特定使命的技能。例如,Pinterest上的图画分类,或许Facebook的人脸辨认。这些人工智能技能完结的办法便是“机器学习”。

  2.机器学习:使人工智能实在产生

  人工智能的中心便是经过不断地机器学习,而让自己变得愈加智能。机器学习最基本的做法,是运用算法来解析数据、从中学习,然后对实在国际中的事情做出决议计划和猜想。与传统的为处理特定使命、硬编码的软件程序不同,机器学习是用许多的数据来“练习”,经过各种算法从数据中学习怎么完结使命。

  机器学习最成功的应用范畴是核算机视觉,尽管也仍是需求许多的手艺编码来完结作业。以辨认中止标志牌为例:人们需求手艺编写形状检测程序来判别检测目标是不是有八条边;写分类器来辨认字母“S-T-O-P”。运用以上这些手艺编写的分类器与边际检测滤波器,人们总算能够开发算法来辨认标志牌从哪里开端、到哪里完毕,然后感知图画,判别图画是不是一个中止标志牌。

  这个成果还算不错,但并不是那种能让人为之一振的成功。特别是遇到雾霾天,标志牌变得不是那么清晰可见,又或许被树遮挡一部分,算法就难以成功了。这便是为什么很长一段时间,核算机视觉的功用一向无法接近到人的才能。它太死板,太简略受环境条件的搅扰。

  3.人工神经网络:赋予机器学习以深度

  人工神经网络是前期机器学习中的一个重要的算法,历经数十年风风雨雨。神经网络的原理是受咱们大脑的生理结构——相互穿插相连的神经元启示。但与大脑中一个神经元能够衔接必定间隔内的恣意神经元不同,人工神经网络具有离散的层,每一次只衔接契合数据传达方向的其它层。

  例如,咱们能够把一幅图画切分红图画块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完结类似的作业,把数据传递到第三层,以此类推,直到终究一层,然后生成成果。

  每一个神经元都为它的输入分配权重,这个权重的正确与否与其履行的使命直接相关。终究的输出由这些权重加总来决议。

  咱们仍以中止标志牌为例:将一个中止标志牌图画的一切元素都打碎,然后用神经元进行“查看”:八边形的外形、救火车般的红颜色、明显杰出的字母、交通标志的典型尺度和静止不动运动特性等等。神经网络的使命便是给出定论,它究竟是不是一个中止标志牌。神经网络会依据一切权重,给出一个经过深思熟虑的猜想——“概率向量”。

  这个比如里,体系或许会给出这样的成果:86%或许是一个中止标志牌;7%的或许是一个限速标志牌;5%的或许是一个风筝挂在树上等等。然后网络结构奉告神经网络,它的定论是否正确。

  即使是这个比如,也算是比较超前了。直到前不久,神经网络也仍是为人工智能圈所淡忘。其实在人工智能呈现的前期,神经网络就现已存在了,但神经网络关于“智能”的奉献微乎其微。首要问题是,即使是最基本的神经网络,也需求许多的运算,而这种运算需求难以得到满意。

  4.深度学习:除掉神经网络之差错

  深度学习由人工神经网络衍生而来,是一种需求练习的具有大型神经网络的多隐层层次结构,其每层相当于一个能够处理问题不同方面的机器学习。使用这种深层非线性的网络结构,深度学习能够完结杂乱函数的迫临,将表征输入数据分布式表明,继而展示强壮的从少量样本集中学习数据集本质特征的才能,并使概率向量愈加收敛。

  简略来说,深度学习神经网络对数据的处理办法和学习办法与人类大脑的神经元愈加类似,比传统的神经网络更准确。

  咱们回过头来看这个中止标志辨认的比如:深度学习神经网络从成百上千乃至几百万张中止标志图画中提取表征数据,经过重复练习将神经元输入的权重调制得愈加准确,不管是否有雾,晴天仍是雨天,每次都能得到正确的成果。只要这个时分,咱们才能够说神经网络成功地自学习到一个中止标志的姿态。

  Google的AlphaGo也是先学会了怎么下围棋,然后经过不断地与自己下棋,练习自己的神经网络,这种练习使得AlphaGo成功在三个月后打败了等级分数更高的李世石。

  二、深度学习的完结

  深度学习仿若机器学习最顶端的钻石,赋予人工智能更灿烂的未来。其摧枯拉朽般地完结了各种咱们从前想都不敢想的使命,使得简直一切的机器辅佐功用都变为或许。更好的电影引荐、智能穿戴,乃至无人驾驶轿车、预防性医疗保健,都近在眼前,或许行将完结。人工智能就在现在,就在明日。你的C-3PO我拿走了,你有你的终结者就好。

  可是正如前面说到的,人工神经网络,即深度学习的前身,现已存在了近三十年,但直到最近的5到10年才再次鼓起,这又是因为什么?

  1.打破限制的学习算法

  20世纪90年代,包含支撑向量机(SVM)与最大熵办法(LR)在内的许多浅层机器学习算法相继提出,使得根据反向传达算法(BP)的人工神经网络因难以补偿的下风逐渐淡出人们的视野。直到 2006年,加拿大多伦多大学教授、机器学习范畴的权威 Geoffrey Hinton 和他的学生在《科学》上宣布了一篇文章,处理了反向传达算法存在的过拟合与难练习的问题,然后敞开了深度学习在学术界和工业界的浪潮。

  深度学习的本质,是经过构建具有许多隐层的机器学习模型和海量的练习数据,来学习更有用的特征,然后终究提高分类或猜想的准确性。因而,“深度模型”是手法,“特征学习”是意图。差异于传统的浅层学习,深度学习的不同在于:

  ·强调了模型结构的深度,一般有5层、6层,乃至10多层的隐层节点;

  ·清晰杰出了特征学习的重要性,也便是说,经过逐层特征改换,将样本在原空间的特征表明改换到一个新特征空间,然后使分类或猜想愈加简略。

  这种算法的不同提高了对练习数据量和并行核算才能的需求,而在其时,移动设备没有遍及,这使得非结构化数据的收集并不是那么简略。

声明:本文内容来自网络转载或用户投稿,文章版权归原作者和原出处所有。文中观点,不代表本站立场。若有侵权请联系本站删除(kf@86ic.com)https://www.86ic.net/dianyuan/203883.html

为您推荐

联系我们

联系我们

在线咨询: QQ交谈

邮箱: kf@86ic.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部