西西河

jahcoo

注册:2008-04-23 05:59:32
从八品上:承奉郎|御武(侮)校尉
💧4230
🌟258
💓580

家园

所有帖 / 4 上页 下页 末页
2016-03-15 13:52:21分页 全看 树展
🙂三个字解读深度学习:找规律 ↑2 ↓0
深度学习属于机器学习,经常又叫模式识别,所谓模式,其实就是一套较大概率适用的规律,在规律找到之后,我们就可以利用规律直接从因得到果,免去中间复杂的推导和计算,所以看起来就跟人类的“直觉”一样 所以基本上只要这个任务的实质是属于“找规律”的,深度学习理论上来说都能够胜任,而且可能比 ...
2016-03-15 12:37:26分页 全看 树展
🙂哦,谢谢提醒,我都没看到这个新闻 ↑7 ↓0
找来看了一下,大致有这么一些感受 首先,自动驾驶和阿尔法狗有一个很大的不同点,设计者对自动驾驶的算法控制能力比阿尔法狗中要强得多。在阿尔法狗中,是以深度学习的选位和胜率判断为主,然后MCTS主要是用来实现利用深度学习进行后手预测的工具;而在自动驾驶中,深度学习只是作为一种特殊的传 ...
2016-03-15 10:49:42分页 全看 树展
🙂呵呵,或许赛前谷歌也没想到小李子这么猛 ↑5 ↓0
楼下岑子说得很透彻了,比赛的设定确实不太利于人类的,宣传可能是主要目的 赛前谷歌可能不是没想到小李子这么废,而是没想到小李子这么猛,至少我自己在赛前是几乎肯定小李子会被洗个5:0的,估计在深度学习这一行里的绝大多数都会这么认为,因为我们已经习惯在各个方面被机器碾压了。。。 看到很 ...
2016-03-15 01:23:52分页 全看 树展
🙂应该不会每局调参,代价太大了 ↑11 ↓0
非常可喜的是,通过几天的比赛,深度学习出现在公众的视野中,正在听新浪的直播,比起前面几天,嘉宾的说法越来越靠谱,不再像刚开始的时候让专业里的人听起来觉得是在瞎扯了 深度学习目前在理论上处于一种比较尴尬的状态,由于缺乏理论基础,目前研究者的工作主要都集中在查缺补漏上面,对于深度学习 ...
2016-03-14 21:36:56分页 全看 树展
🙂有点阴谋论了 ↑19 ↓0
狗狗的胜利和失败,至少从机器学习的理论上来看,都是能解释得通的,并不超出常理 如果说放水故意输还是能操纵的,因为可以压缩MCTS的搜索空间强迫狗狗犯错,但是从狗狗应手的时间上看还是比较均匀的,可能性不大(如果硬要说谷歌可以用sleep()来拖延时间,好吧你赢了。。。) 但是要说可 ...
2016-03-14 09:27:30分页 全看 树展
🙂不一定 ↑16 ↓0
小李的胜利首先是明确证明了一件事,狗狗在领先状态下(至少是在它认为的领先状态下)下出的臭棋就是臭棋,不是人类还理解不了的妙招;另外还证明了一件事,狗狗对胜率的判定存在偏差或者错误,如果说在78步后狗狗觉得胜率有70%还不能证明这一点的话,到第87步才陡降至40%以下就能确认了。这 ...
2016-03-13 22:54:25分页 全看 树展
🙂完全理解不能 ↑1 ↓0
仔细看了一下小李在第四局的表现点评,感觉这是人类智慧的胜利,“增兵减灶”,计谋战胜了机器逻辑 小李用多个“不太好”的应手,让机器麻痹大意,自以为胜率已经到了70%以上,于是一如既往的下臭棋来龟兔赛跑,被小李逮住机会来一记精彩的反杀 这个策略很可能是设计好的,太精彩了,太伟大了! ...
2016-03-13 22:08:36分页 全看 树展
🙂送花,你说得没错,我说的也没错 ↑28 ↓0
这其实就是shallow和deep的区别,说说我个人的浅见吧,欢迎狠狠地拍砖 半路出家,没搞过ANN,就从SVM的角度来说吧,目前我们基本上可以认为,不管是ANN也好,SVM也好,Boosting也好,都是传统的shallow方法,具体做法可能不一样,但是效果都差不多 我们的目的 ...
2016-03-13 13:31:50分页 全看 树展
🙂如果把关联性本身看成是目标函数 ↑2 ↓0
那就简单粗暴地去拟合这个目标函数就好了,深度学习就是这么干的,给一幅猫的图,机器就应该输出一个值“猫”,给一幅狗的图就应该输出“狗”,至于怎样才能这样输出,机器自己学习去吧 现在给机器看一幅图片,甚至是一段电影,机器已经能够用一句或者几句话(自然语言)把图片或者电影的内容描述出来 ...
2016-03-13 13:21:39分页 全看 树展
🙂应该不会只限于打过的谱和训练过的对局 ↑1 ↓0
这意味着深度学习不具备泛化能力,这是明显不正确的,传统机器学习都具有泛化能力,深度学习的泛化能力更强 我觉得这个问题可能和传统机器学习在multi-class中的inconsistency问题比较类似,纯感觉,没有一点根据。。。等谷歌自己的判断吧 ...
2016-03-13 12:06:40分页 全看 树展
🙂不知道是不是碰巧 ↑0 ↓0
也许不是主观的找到了狗狗弱点,个人倾向于是“瞎猫碰见死耗子”的好运气撞上了狗狗的弱点 但这也很伟大,非常了不起,至少给人类提供了一个契机去进一步理解狗狗 是已经找到弱点,还是运气旺得冒火,且看下周二是3:2还是4:1吧 ...
2016-03-13 11:40:12分页 全看 树展
🙂谢谢支持 ↑2 ↓0
顺便推敲几个细节 1、十几层神经网络不是简单就是十几个滤波器,一层神经网络一般有几十或者几百个滤波器(一个核就是一个滤波器),十几层网络可能有几千上万个滤波器。不同层的滤波器干不同层次的任务,比如第一层,目前比较一致的观点是在做边缘提取,再上一层大概是在做类似于角点、交叉点检测的 ...
2016-03-13 11:10:36分页 全看 树展
🙂神佑人族 ↑2 ↓0
昨天才说到如果人类如有神助,提前发现狗狗弱点,今天就现世报了。。。 狗狗和小李你们这是商量好了拍大片么,这节奏也太好了,配合太默契了 按理说,这种完全没有理论指导的盲目试错型软件测试,顺利找到BUG的可能性跟抽中五百万可能差不太多,但就这样眼睁睁地看着它发生了,而且发生得这么快。 ...
2016-03-13 04:15:19分页 全看 树展
🙂没写过神经网络的code ↑10 ↓0
但我确实写过深度学习的code。。。 我是半路出家搞深度学习的,原来搞的是SVM方向,不是做NN的 至少从我的理解,一个深度学习的forward过程,就像我说的conv层、fc层就是y=<w,x>+b,ReLU层就是y=max{x,0},就是这些层的堆叠,简单函数的复合函数表达了 ...
2016-03-13 00:20:03分页 全看 树展
🙂深度计算极其复杂却又极其简单 ↑2 ↓0
深度计算的整体公式是各层计算的复合函数,这个函数极其复杂,甚至已经超出了人类目前的理解能力 但是各层的计算公式,也就是组成复合函数的各个子函数却又极其简单,比如我说的y=<w,x>+b,再比如y=max{x,0} 我们要实现深度计算,不管是通过软件实现,还是通过硬件实现,其实都是 ...
所有帖 / 4 上页 下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河