- 发帖可能变空内容,邪门暂不知所以然
- 『稷下学宫』新认证方式,24年网站打算和努力目标
主题:【讨论】中国首枚智能芯片问世 -- 红茶冰
原帖地址;中科院研究员陈云霁:中国智能芯片引领世界
中国科学院计算技术研究所陈云霁、陈天石课题组提出的深度学习处理器指令集DianNaoYu以及全球首个深度学习处理器架构寒武纪。
陈云霁本人在介绍寒武纪架构是这么说的
DianNaoYu指令直接面对大规模神经元和突触的处理,一条指令即可完成一组神经元的处理,并对神经元和突触数据在芯片上的传输提供了一系列专门的支持。
话说寒武纪和IBM的SyNAPSE有何区别呢?河里的大虾过来聊聊呗。
贴一篇知乎对SyNAPSE介绍
不都是个FPGA么。第一个方面,做这种玩意儿的自然有专业的FPGA公司,比如Altera,其产品目前在微软、百度、好像还有谷歌都在试用了。要买FPGA,你选Xilinx、Altera的,还是别家的?就像要买电脑,CPU一般估计还是会买Intel或者AMD的吧。第二个方面,FPGA这东西,功耗是低,但是价格也不便宜啊,为啥也就微软、百度这些用呢,买不起啊。。。真想引领世界,到ASIC再说吧
再说了,FPGA还是硬件编程,一般来说,你见过算法还没固定就硬化的吗?深度学习的发展日新月异,好多个算法更新换代的暗流涌动,我觉得到明后年又是完全另一片天地,现在做硬化的,搞搞科研积累点经验提高一下知名度都是可以的,真要去产品化,除非真的不差钱儿,要不就还是再等等吧
走这个路线还是太早了,没发展到那个程度。
现在股票最火的是nVidia,AMD也坐不住了,看好GPU的随着深度学习需求的进一步进化,不过VR一项就已经够让GPU吃香喝辣好多年了。
中国芯片业如果可以弄GPU,最好弄成白菜价,不是说中国制造有这个绰号么,现在最迫切需要白菜价的就是TM的GPU了,NND中国人为什么还不出手。
大赞Made in China GPU,跟NVidia价格战!
首先 FPGA不管用哪家都仅仅是开发工具,实现功能化硬件的手段。
要做FPGA必须有良好的政府背景才行,比方说京微雅阁。
能流片了,肯定是对产品本身很有信心的,或许陈云霁已经拿到某方面的背书啦?
直接希望出现一个开天辟地似的算法与架构还不如现针对某特定范围内的应用。比方说自定义网络(SDN)芯片之类。如果成功的话,既锻炼培养了队伍,又能明确了发展方向,同时还能挣些小钱钱~
我脚的,出现国产GPU大战A N俩家的话,或许龙心早就和Inter和AMD三足鼎立(甚至于AMD早就挂球了)
对产品很有信心那是一定的,我也很有信心,因为深度学习里的计算太简单了,80%甚至90%以上的计算,就是一个y=<w,x>+b,做个算这个的专用硬件出来,找个学这专业的本科生都能干,何况别人还有研究员挂帅
但是怎样把这些这么基本的运算组合起来,达到智能的效果,这个目前固定不下来,几个月就变了,硬件编程最怕这个。。。看看Altera这些是怎么做的吧,其实主要进步在于现在他们开发出支持openCL的编译器了,所以能够加快硬件编程的需求变更响应速度了,但这根本就跟硬件无关啊。。。
当然针对特定应用是一个路子,但这不就是个横向项目么,跟“引领世界”有半毛钱关系啊?
其实陈云霁还是蛮实诚的。看这篇 http://www.csdn.net/article/2015-09-14/2825698
观察者的报道有点浪了。
我的理解,这种智能芯片就相当于 有深度神经网络处理功能的GPU芯片。我们知道通用芯片运行神经网络功能时耗时耗能,现在就可以直接交给智能芯片处理就行了。这就相当于CPU把图形的运算处理交给GPU一样。智能芯片就是加速这个神经网络的运算(几个数量级)和极大的降低功耗。它有自己的指令集diannaoyu。
和IBM的TRUENORTH的区别就是:运用不同的技术来实现神经网络的运算功能, Truenorth 是仿生技术, 就是所谓脉冲神经网络。
其运算过程及其复杂,并非是什么加减运算。这么说吧:现有数学都无法用完整的公式把它描述出来。有些人用指数公式简单描述,更多的人干脆把它形容成“黑箱”。
FPGA仅仅是实现现在架构的一个方法,将来去流片更加经济。
陈云霁、陈天石课题组在国际上提出了首个深度学习处理器架构寒武纪。而DianNaoYu则是寒武纪的指令集。DianNaoYu指令直接面对大规模神经元和突触的处理,一条指令即可完成一组神经元的处理,并对神经元和突触数据在芯片上的传输提供了一系列专门的支持。
有模拟实验表明,采用DianNaoYu指令集的深度学习处理器相对于x86指令集的CPU有两个数量级的性能提升。
走指令集--专用架构--硬件系统--软件系统这样的分层体系,有助于降低DeepLearning发展的门槛,提升经济可行性, 如果建成一个庞大的开放系统,中国可以成为DeepLearning的最大受益国。
深度计算的整体公式是各层计算的复合函数,这个函数极其复杂,甚至已经超出了人类目前的理解能力
但是各层的计算公式,也就是组成复合函数的各个子函数却又极其简单,比如我说的y=<w,x>+b,再比如y=max{x,0}
我们要实现深度计算,不管是通过软件实现,还是通过硬件实现,其实都是实现这样简单的子函数而已,不可能也不需要去直接实现那个极其复杂的复合函数的
写过有关神经网络的code吗?
不懂就不要瞎说。
但我确实写过深度学习的code。。。
我是半路出家搞深度学习的,原来搞的是SVM方向,不是做NN的
至少从我的理解,一个深度学习的forward过程,就像我说的conv层、fc层就是y=<w,x>+b,ReLU层就是y=max{x,0},就是这些层的堆叠,简单函数的复合函数表达了极其复杂的函数
你有不同意见,就请说出来大家探讨,不要搞人身攻击
jahcoo说的没啥问题啊,通俗一点说,识别猫的过程就是给机器喂一堆猫的照片,卷积核通俗理解就是滤波器,比如将图片去噪,完全模糊等等,你可以认为是和美图秀秀反着干的,对机器来说越不清楚,特征就会浮现,每个滤波器只处理一种,所谓十几层神经网络就是十几个滤波器,后面就是分类器的训练了,上各种花招都是为了降低运算量,其实在算法确定的情况下,上FPGA就是最好选择了,mxNet项目为了玩这个GPU都要榨干。
然后给机器从未看过的猫的照片,机器“眼”中看到的是一个概率分布的图片,概率高的区域就是猫了,其实机器连猫是个啥都不知道。
目前DCNN(深度卷积神经网络)最为搞笑的地方是,需要人工去调节各种参数,比如上面提到的图片模糊一下,到底模糊0.1还是0.11,训练的结果是不同的,干这个活的又讲不清为什么,只好扯这都是黑箱了,这个trick是各家的秘密,打死也不能外传。
无论如何,这是一个巨大的进步,阿尔法狗一折腾,估计各种资源都会扑过去了,我是做工程的,但是我真的很期待搞理论的能把这个捋清楚了。