(文章来历:雷锋网)
2012年,深度学习算法在图画分类比赛中展现出的显着功能提高引发了新一轮的AI热潮。2015年,深度学习算法对芯片的快速增长需求引发了AI芯片创业热潮。
不过,拥抱AI芯片的规划者们很快发现,运用经典冯诺依曼核算架构的AI芯片即便在运算单元算力大幅提高,但存储器功能提高速度较慢的情况下,两者的功能距离越来越显着,而深度学习算法带来的数据转移耗费的能量是核算耗费能量的几十倍乃至几百倍,“内存墙”的问题越来越显着。
因而,依托软件算法以及云端强壮核算才能的人工智能尽管取得了较大的成功,可以担任多种特定的智能处理使命,可是面对功耗、速度、本钱等许多应战,离智能万物互联年代还有巨大距离。
AI芯片的核心技能之一便是处理“内存墙”应战,可以在存储器内直接做核算的存内核算(In-Memory Computing)技能在沉寂了近30年后,AI热潮下近年来成为焦点。无论是尖端学术会议,仍是巨子公司都在寻觅可以用存内核算打破AI芯片“内存墙”的最佳技能计划。
2018年,世界尖端学术会议-IEEE世界固态电路会议(ISSCC)有一个专门的议程评论存内核算。2019年和2020年关于存内运算的论文更是大迸发,ISSCC2020与存内核算相关的论文数量上升到了7篇。一起,2019年电子器件范畴尖端会议IEDM有三个专门的议程共二十余篇存内核算相关的论文。
除了学术界,工业界也越来越多的玩家布局该技能。IBM根据其共同的相变存内核算现已有了数年的技能堆集;台积电正大力推动根据ReRAM的存内核算计划;英特尔、博世、美光、Lam Research、使用资料、微软、亚马逊、软银则出资了根据NOR Flash的存内核算芯片。
其实,使用存储器做核算在很早以前就有人研讨,上世纪90年代就有学者宣布过相关论文。但没有人真实完成工业落地,究其原因,一方面是规划应战比较大,更为要害的是没有杀手级使用。跟着深度学习的大规模迸发,存内核算技能才开端工业化落地。
2011年,郭昕婕本科毕业于北大信息科学技能学院微电子专业,本科毕业之后郭昕婕开端了美国加州大学圣塔芭芭拉分校(UCSB)的博士学业,她的导师Dmitri B.Strukov教授是存内核算范畴的学术大牛,2008年在惠普完成了忆阻器的初次制备,2010年加入了美国加州大学圣塔芭芭拉分校。郭昕婕也成为了Dmitri B.Strukov教授的第一批博士生,开端了根据NOR FLASH存内核算芯片的研讨。
Dmitri B. Strukov告诉她,FLASH现已商用几十年,技能老练,本钱很低,是最接近工业化的方向,但缺陷相同是由于FLASH研讨起步较早,学术界对FLASH存内核算的研讨希望较高,宣布文章不易。2013年,跟着深度学习的研讨热潮席卷学术界,在导师的支撑下,郭昕婕开端测验根据NOR FLASH存内核算的芯片研制。
耗时4年,历经6次流片,郭昕婕总算在2016年研制出全球第一个3层神经网络的浮栅存内核算深度学习芯片,初次验证了根据浮栅晶体管的存内核算在深度学习使用中的功效。仅一年后,她就进一步攻下7层神经网络的浮栅存内核算深度学习芯片。
也是在2016年,郭昕婕的大学同学,也是她老公的王绍迪,相同看到了存内核算芯片在AI中的使用价值,挑选和郭昕婕持续在博士后阶段从事存内核算的研讨工作。2017年,美国开端大力赞助存内核算技能的研制,王绍迪和其导师的项目也取得了600万美金的赞助。郭昕婕配偶以为时机老练,决然挑选回国创业,并取得了启迪之星、兆易立异等相关人的出资支撑。
2017年10月,知存科技在北京建立,由于堆集了丰厚的经历,知存科技在建立后的10个月内就初次流片。一起加上存内核算技能逐渐取得认可,知存科技的开展也在逐渐加速,并于2018年12月取得获讯飞领投的天使+轮融资,2019年8月又取得中芯聚源领投的近亿元A轮融资。
王绍迪对存内核算技能在AI中的使用充满信心,他承受雷锋网采访时表明:“AI算法的参数越多,存内核算的优势越大。由于存内核算是在存储器中贮存了一个操作数,输入另一个操作数后就可以得到运算成果。所以参数越多,节约的数据转移就越多,优势也就越显着。存内核算可以看作是一个大的锤子,AI算法是钉子,前期落地的算法是小钉子,跟着时刻推演,钉子会越来越大越来越多。”
知存科技的计划是从底层从头规划存储器,使用NOR FLASH存储单元的物理特性,对存储阵列进行改造,从头规划外围电路使其可以包容更多的数据,一起将算子也存储到存储器傍边,使得每个单元都能进行模仿运算并且能直接输出运算成果,以到达存内核算的意图。
(责任编辑:fqj)