西西河

jahcoo

注册:2008-04-23 05:59:32
从八品上:承奉郎|御武(侮)校尉
💧4230
🌟258
💓580

家园

所有帖 / 4 上页 下页 末页
2016-03-12 14:29:03分页 全看 树展
🙂呃。。。这个还真不好说 ↑4 ↓0
对产品很有信心那是一定的,我也很有信心,因为深度学习里的计算太简单了,80%甚至90%以上的计算,就是一个y=<w,x>+b,做个算这个的专用硬件出来,找个学这专业的本科生都能干,何况别人还有研究员挂帅 但是怎样把这些这么基本的运算组合起来,达到智能的效果,这个目前固定不下来,几 ...
2016-03-12 13:05:50分页 全看 树展
🙂这个脑洞开得好! ↑2 ↓0
大赞Made in China GPU,跟NVidia价格战!
2016-03-12 12:54:01分页 全看 树展
🙂洗洗睡吧 ↑8 ↓0
不都是个FPGA么。第一个方面,做这种玩意儿的自然有专业的FPGA公司,比如Altera,其产品目前在微软、百度、好像还有谷歌都在试用了。要买FPGA,你选Xilinx、Altera的,还是别家的?就像要买电脑,CPU一般估计还是会买Intel或者AMD的吧。第二个方面,FPGA ...
2016-03-12 11:59:19分页 全看 树展
🙂第一个问题是“多长时间才能收敛到全局最优解”吧? ↑3 ↓0
1、真正收敛到全局最优解,这个时间可能仍然是一个天文数字,有文章说狗狗每秒能够计算10万种棋路,这一方面得益于硬件的发展以及谷歌、英伟达等专家专业的优化,另一方面深度学习能力强,在做到跟传统方法一样好的程度的时候,一般确实要快很多。但这比起围棋全部的可能变化,仍然太渺小了,所以狗 ...
2016-03-12 11:15:50分页 全看 树展
🙂我们都是干电池 ↑10 ↓0
这样的感觉越来越深了 也许matrix还没有实现,也许真正的“人工智能”离我们还很遥远,但我们已经开始电池化了,而且是积极主动地跑步进入电池状态 为训练LeNet写出那六万个手写字符的人是不是电池? 为了AlexNet、VGG、GoogLeNet等等等等收集了几百万张图片,并且一 ...
2016-03-12 06:19:26分页 全看 树展
🙂shallow or deep? ↑3 ↓0
shallow policy和deep policy(deep learning)到底有多大的区别,从数学上看,两者确实没有多大的区别,只是描述的维度不一样而已,deep learning的泛函维度更高。但是从现实中来看,两者其实是有本质的区别的,deep policy在各个方面 ...
2016-03-10 21:35:21分页 全看 树展
🙂谢谢链接 ↑4 ↓0
田的分析对搞这行的人来说没什么新意可言,只能算是个科普吧。。。 谷歌的nature文章是早就出来了,但是细节内容有所保留无疑 举个最简单的,比如谷歌说自己和自己下棋,每盘棋是只选了一个局面作为样本来进行训练 但是这个局面是怎么选出来的呢?我想如果是random,那结果一定不会是现 ...
2016-03-10 21:24:57分页 全看 树展
🙂写完了发现你说的参数和我说的参数不是一回事儿。。。 ↑2 ↓0
写完了发现你说的参数和我说的参数不是一回事儿。。。 从你说的参数方面看的话,其实不就是一个fine-tuning么,直觉上看新参数应该和老参数相去不远 ...
2016-03-10 21:22:48分页 全看 树展
🙂参数就那么重要吗? ↑2 ↓0
从整个机器学习,尤其是深度学习的发展来看,参数也许并不重要,数据精度也不重要 之前我们觉得重要,是因为我们处理数据的方式不够“自然”。参数非常重要的系统,说白了就是unstable,而深度学习是要做出足够stable的系统,那么参数根本就不重要 周志华他们搞的LDM,就发现原来传 ...
2016-03-10 21:15:37分页 全看 树展
🙂可能不仅仅代表了过去所有的围棋高手们 ↑2 ↓0
还代表了未来一段时间内的所有围棋高手们,原因就在于狗狗自己和自己下棋的RL方式 另外就是对于围棋这种有明确胜负的游戏来说,“旧的坏的”也许并不是那么明确,更大的可能是能捉住老鼠的就是好猫 但是细想之下,RL在这里的应用也许并不是像google论文里那么轻描淡写的简单,我觉得goo ...
2016-03-10 20:54:12分页 全看 树展
🙂这正是可以改造成全卷积的前提 ↑2 ↓0
本质上全连接层就是1X1 kernel_size的卷积层,改造成全卷积网络非常直接 问题在于原来1X1的输出变成了10X10的输出,那么最简单的就是直接做个fusion,那么狗狗的“大局观”会有一定程度的损失 更本质一点的话,把fusion用一个network来代替,通过较少的训 ...
2016-03-10 20:39:08分页 全看 树展
🙂这是MCTS的基本问题不假 ↑10 ↓0
我也不觉得狗狗直接解决了这个问题,因为这个问题的直接解决方法很有可能并不存在 但是我的直觉告诉我,这个问题有极大的可能被间接地解决了。由于新的策略方式(policy net + value net)跟传统的完全基于蒙特卡洛的方式有本质的区别,所以就像二维平面里不可能的跳到封闭曲线 ...
2016-03-10 11:30:34分页 全看 树展
🙂“模仿棋” ↑2 ↓0
还有非常好奇,如果跟狗狗下一局完完全全的“模仿棋”,不知道它会如何应对呢
2016-03-10 11:25:58分页 全看 树展
🙂这不过是“愚蠢的人类”的一点小猜想而已 ↑4 ↓0
感觉基本上不会成立,非常期待周末狗狗能够用一局劫争来教“愚蠢的人类”学做人 按狗狗设计的方式,在出现劫争的时候,也许它对于跳出劫争的时机把握会趋于完美。小李不出劫,我一个大胆的猜想,不是因为什么保密协议,而是狗狗的团队或者是其他人告诉过他,狗狗在劫争的处理上不是人的智力能够抗衡的 ...
2016-03-10 11:10:43分页 全看 树展
🙂应该不会出现这种情况 ↑1 ↓0
或者说这种情况是非常容易解决的 如果真是如您主楼所说,采用19*19的卷积网络来做的话,用全卷积网络就没有这个必须是19*19的限制了,表现出来也许仅仅是狗狗的大局观“没那么强”了而已 ...
所有帖 / 4 上页 下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河