- 程序有所改变。发帖如还有问题请报告
- 【征集】西西河的经济学,及清流措施,需要主动参与者,『稷下学宫』新认证方式,24年网站打算和努力目标
主题:AlphaGo和F-35 -- 晨枫
shallow policy和deep policy(deep learning)到底有多大的区别,从数学上看,两者确实没有多大的区别,只是描述的维度不一样而已,deep learning的泛函维度更高。但是从现实中来看,两者其实是有本质的区别的,deep policy在各个方面碾压传统shallow policy,只是这种“本质”区别超出了人类目前的认知水平而已
樊麾赢的两局棋谱没有公开,但是我们知道这两局是在“快棋”中赢的,AlphaGo确实犯了错误,犯的错误很简单,时间不够,所以收敛到了局部最优解
比较有意思的问题是,利用AlphaGo,我们也许在不久的将来就会知道,围棋里是不是有“必胜布局”存在,直观的感觉上,“必胜局”应该是存在的,所以围棋的规则也许会在今后的某一天出现非常大的变化,其目的就是为了限制“必胜局”,也许要恢复“座子制”?那可真有意思,春秋战国的中国人,是在外星人的指点下,穷尽了围棋的所有可能,发明了这么神奇的东西?
那么更有意思的问题是,利用DeepMind Health,是不是有一天我们会从另一个维度证明了中医里的精华的正确?细思极恐。。。
- 相关回复 上下关系8
压缩 4 层
🙂可以同意! 3 说几句 字67 2016-03-11 20:47:31
🙂这是MCTS的基本问题不假 10 jahcoo 字1240 2016-03-10 20:39:08
🙂不同看法 1 happyyuppie 字1583 2016-03-11 22:14:55
🙂shallow or deep?
🙂这个我同意 2 happyyuppie 字827 2016-03-12 11:08:34
🙂第一个问题是“多长时间才能收敛到全局最优解”吧? 3 jahcoo 字2432 2016-03-12 11:59:19
🙂神佑人族 2 jahcoo 字1003 2016-03-13 11:10:36
🙂可能是MCTS的痼疾 1 happyyuppie 字1496 2016-03-13 17:42:29