- 程序有所改变。发帖如还有问题请报告
- 【征集】西西河的经济学,及清流措施,需要主动参与者,『稷下学宫』新认证方式,24年网站打算和努力目标
jahcoo
注册:2008-04-23 05:59:32
从八品上:承奉郎|御武(侮)校尉
从八品上:承奉郎|御武(侮)校尉
💧4230
🌟258
💓580
🌟258
💓580
家园
深度学习属于机器学习,经常又叫模式识别,所谓模式,其实就是一套较大概率适用的规律,在规律找到之后,我们就可以利用规律直接从因得到果,免去中间复杂的推导和计算,所以看起来就跟人类的“直觉”一样 所以基本上只要这个任务的实质是属于“找规律”的,深度学习理论上来说都能够胜任,而且可能比 ...
找来看了一下,大致有这么一些感受 首先,自动驾驶和阿尔法狗有一个很大的不同点,设计者对自动驾驶的算法控制能力比阿尔法狗中要强得多。在阿尔法狗中,是以深度学习的选位和胜率判断为主,然后MCTS主要是用来实现利用深度学习进行后手预测的工具;而在自动驾驶中,深度学习只是作为一种特殊的传 ...
楼下岑子说得很透彻了,比赛的设定确实不太利于人类的,宣传可能是主要目的 赛前谷歌可能不是没想到小李子这么废,而是没想到小李子这么猛,至少我自己在赛前是几乎肯定小李子会被洗个5:0的,估计在深度学习这一行里的绝大多数都会这么认为,因为我们已经习惯在各个方面被机器碾压了。。。 看到很 ...
非常可喜的是,通过几天的比赛,深度学习出现在公众的视野中,正在听新浪的直播,比起前面几天,嘉宾的说法越来越靠谱,不再像刚开始的时候让专业里的人听起来觉得是在瞎扯了 深度学习目前在理论上处于一种比较尴尬的状态,由于缺乏理论基础,目前研究者的工作主要都集中在查缺补漏上面,对于深度学习 ...
狗狗的胜利和失败,至少从机器学习的理论上来看,都是能解释得通的,并不超出常理 如果说放水故意输还是能操纵的,因为可以压缩MCTS的搜索空间强迫狗狗犯错,但是从狗狗应手的时间上看还是比较均匀的,可能性不大(如果硬要说谷歌可以用sleep()来拖延时间,好吧你赢了。。。) 但是要说可 ...
小李的胜利首先是明确证明了一件事,狗狗在领先状态下(至少是在它认为的领先状态下)下出的臭棋就是臭棋,不是人类还理解不了的妙招;另外还证明了一件事,狗狗对胜率的判定存在偏差或者错误,如果说在78步后狗狗觉得胜率有70%还不能证明这一点的话,到第87步才陡降至40%以下就能确认了。这 ...
仔细看了一下小李在第四局的表现点评,感觉这是人类智慧的胜利,“增兵减灶”,计谋战胜了机器逻辑 小李用多个“不太好”的应手,让机器麻痹大意,自以为胜率已经到了70%以上,于是一如既往的下臭棋来龟兔赛跑,被小李逮住机会来一记精彩的反杀 这个策略很可能是设计好的,太精彩了,太伟大了! ...
这其实就是shallow和deep的区别,说说我个人的浅见吧,欢迎狠狠地拍砖 半路出家,没搞过ANN,就从SVM的角度来说吧,目前我们基本上可以认为,不管是ANN也好,SVM也好,Boosting也好,都是传统的shallow方法,具体做法可能不一样,但是效果都差不多 我们的目的 ...
那就简单粗暴地去拟合这个目标函数就好了,深度学习就是这么干的,给一幅猫的图,机器就应该输出一个值“猫”,给一幅狗的图就应该输出“狗”,至于怎样才能这样输出,机器自己学习去吧 现在给机器看一幅图片,甚至是一段电影,机器已经能够用一句或者几句话(自然语言)把图片或者电影的内容描述出来 ...
这意味着深度学习不具备泛化能力,这是明显不正确的,传统机器学习都具有泛化能力,深度学习的泛化能力更强 我觉得这个问题可能和传统机器学习在multi-class中的inconsistency问题比较类似,纯感觉,没有一点根据。。。等谷歌自己的判断吧 ...
也许不是主观的找到了狗狗弱点,个人倾向于是“瞎猫碰见死耗子”的好运气撞上了狗狗的弱点 但这也很伟大,非常了不起,至少给人类提供了一个契机去进一步理解狗狗 是已经找到弱点,还是运气旺得冒火,且看下周二是3:2还是4:1吧 ...
顺便推敲几个细节 1、十几层神经网络不是简单就是十几个滤波器,一层神经网络一般有几十或者几百个滤波器(一个核就是一个滤波器),十几层网络可能有几千上万个滤波器。不同层的滤波器干不同层次的任务,比如第一层,目前比较一致的观点是在做边缘提取,再上一层大概是在做类似于角点、交叉点检测的 ...
昨天才说到如果人类如有神助,提前发现狗狗弱点,今天就现世报了。。。 狗狗和小李你们这是商量好了拍大片么,这节奏也太好了,配合太默契了 按理说,这种完全没有理论指导的盲目试错型软件测试,顺利找到BUG的可能性跟抽中五百万可能差不太多,但就这样眼睁睁地看着它发生了,而且发生得这么快。 ...
但我确实写过深度学习的code。。。 我是半路出家搞深度学习的,原来搞的是SVM方向,不是做NN的 至少从我的理解,一个深度学习的forward过程,就像我说的conv层、fc层就是y=<w,x>+b,ReLU层就是y=max{x,0},就是这些层的堆叠,简单函数的复合函数表达了 ...
深度计算的整体公式是各层计算的复合函数,这个函数极其复杂,甚至已经超出了人类目前的理解能力 但是各层的计算公式,也就是组成复合函数的各个子函数却又极其简单,比如我说的y=<w,x>+b,再比如y=max{x,0} 我们要实现深度计算,不管是通过软件实现,还是通过硬件实现,其实都是 ...