西西河

主题:AlphaGo和F-35 -- 晨枫

共:💬78 🌺303 🌵1 新:
全看树展主题 · 分页首页 上页
/ 6
下页 末页
家园 我抱怨了吗?我说懒得推是省劲儿了,是谢老铁,不是抱怨老铁

而且人富了就懒,我还没说我现在都富到连红包都懒得点了,懒得点红包也省劲儿了,那么些钱,不知道怎么花,我以前都是盼红包的

谢谢老铁,我现在都富到懒得点红包了

家园 我都500多宝了,大富翁啊!
家园 可我怎么不羡慕也不基督你呢?我是很共产很仇富的
家园 可不能这么说啊,几个G的字符,可不是仅仅几个G的信息。

一张1024*1024的全黑照片,

如果用bmp位图格式存储,大概一两兆字节

如果用svg格式存储,恐怕只有一两K字节

但是两种格式的信息量一样多。

通宝推:普鲁托,
家园 跟樊麾的第五局里打过劫

第148-165手

家园 罗冼河那局三劫循环

应当算作是全局性的大劫。

家园 可以同意!

也可以说是三个局部

只不过这种情况实在是不多见

家园 不同看法

你说:"由于新的策略方式(policy net + value net)跟传统的完全基于蒙特卡洛的方式有本质的区别..."

其实现在高水平的围棋软件(比如zen)都不是“完全基于蒙特卡洛的方式”。正如那篇关于AlphaGo的论文摘要里说的,

The strongest current Go programs are based on MCTS, enhanced by policies that are trained to predict human expert moves. These policies are used to narrow the search to a beam of high-probability actions, and to sample actions during rollouts. This approach has achieved strong amateur play. However, prior work has been limited to shallow policies or value functions based on a linear combination of input features.

...

We use these neural networks to reduce the effective depth and breadth of the search tree: evaluating positions using a value network, and sampling actions using a policy network.

因此AlphaGo可以看成是对于这种基于MCTS方法的筛选修剪优化。从MCTS的角度看, AlphaGo用的“policy and value networks”跟目前围棋软件用的“shallow policies or value functions based on a linear combination of input features”没有本质的区别。

你说:"所以在对上狗狗这种不会犯错的对手的时候,“打劫”可能对人类而言就是根本无利的伪招式,反而加大了自己犯错的概率"

问题是,谁敢断定AlphaGo不会犯错?事实上,樊麾在跟它下的五盘“非正式”对局里还赢了两盘,只不过谷歌没有公布这些棋谱,我们不知道AlphaGo犯了什么错误而已。

家园 不管比赛结局如何,阿尔法狗已经赢了。

从已结束的两盘棋局看,阿尔法狗的棋力已经不输于人类。这是很多职业棋手的评价。即使后面三盘阿尔法狗真的输成狗,更不要提那些无聊的“劫争”阴谋论。

如果最后李世石真的输了的话,我的感觉是谷歌赢了,围棋输了。

围棋的魅力在于胜无止境,不可确定。很多棋迷关注围棋本质上是关注围棋的胜负、关注下一个冠军是谁。而今,'以后不管是谁得了冠军,都会说,他下不过那条狗。这种局面真是让人沮丧啊。

有人说下次换柯洁上,这种说法也很无聊。

首先,谷歌是否愿意这么做很难说。谷歌已经通过李世石证明了人工智能水平的又一次飞跃,与其通过柯洁再次证明一个相同的结果,还不如花精力去完成下一次飞跃。

其次,就算柯洁赢了又能咋样?人工智能的棋力不逊于人类已是不争的事实。相反,争强好胜情绪正是人类在棋力上的弱点的表现。

家园 电脑可以有直觉

狗的智能程度已经发展出了直觉。

它是两个算法的混合,一个是贝叶斯网络,一个是蒙特卡洛法。一个倾向于模式的分析,一个倾向于数值的判断。如果通过自学习能够分析出较佳的应手,说明神经网络已经找到围棋在不同形状下的行棋模式,因为神经网络是基于模式识别的。狗就是基于模式识别指导下的最优值取舍。

人的直觉就是不同经验在大脑中的竞争,人做出的任何选择都是先有一个直觉的应对,然后有的因为重要,再加以理性的分析取舍,有的不重要就直接接受直觉选择。所以这个直觉也就是人的应对方式,它是基于当前情境做出的近似判断,也是对经验背后所蕴藏的内在模式的识别。比如一张刀疤脸的出现,会引起警觉,视觉中的刀疤会激活相关记忆,与脸的信息结合起来,形成有关危险的兴奋,这种通路的激活就是一种已经建立起的、对应的模式的唤起。

神经网络可以不知道自己在做什么,但在大量学习后可以建立起到事物背后的模式,我认为这是人脑智能的基本特征。人工智能学习借鉴了这个认知的方式,用普遍的智能形成方式结合海量的学习、海量的记忆、光速的运算,能达到超越人脑的直觉效果,是完全应该的。

通宝推:NoName,
家园 其实简单的砖瓦能够盖出无限可能的房子

程序不仅仅是if else判断语句的堆叠,它背后的思想才是根本,用简单的材料是可以体现出深邃精神的。我意思是,智能可以建立在那些if else程序语句基础之上,电脑可以成长起真正的智能。即使是AlphaGo也已经不光是计算了。

家园 shallow or deep?

shallow policy和deep policy(deep learning)到底有多大的区别,从数学上看,两者确实没有多大的区别,只是描述的维度不一样而已,deep learning的泛函维度更高。但是从现实中来看,两者其实是有本质的区别的,deep policy在各个方面碾压传统shallow policy,只是这种“本质”区别超出了人类目前的认知水平而已

樊麾赢的两局棋谱没有公开,但是我们知道这两局是在“快棋”中赢的,AlphaGo确实犯了错误,犯的错误很简单,时间不够,所以收敛到了局部最优解

比较有意思的问题是,利用AlphaGo,我们也许在不久的将来就会知道,围棋里是不是有“必胜布局”存在,直观的感觉上,“必胜局”应该是存在的,所以围棋的规则也许会在今后的某一天出现非常大的变化,其目的就是为了限制“必胜局”,也许要恢复“座子制”?那可真有意思,春秋战国的中国人,是在外星人的指点下,穷尽了围棋的所有可能,发明了这么神奇的东西?

那么更有意思的问题是,利用DeepMind Health,是不是有一天我们会从另一个维度证明了中医里的精华的正确?细思极恐。。。

家园 照你的说法,国际象棋岂不十年前就死翘翘了

我觉得恰恰相反。如果单机围棋软件能达到职业水平,会有助于欧美围棋爱好者提高水平,吸引更多人参与。而且以后定段就简单多了:跟某个N段水平的围棋软件下达到一定胜率,就是N段。大赛冠军可挑战最高水平的围棋软件,看看差几个子。或者把几个高手集合起来挑战围棋软件。看点还是挺多的。

家园 触类旁通的本质是抽象能力

而抽象能力说白了就是“找不同找相同”的能力。

人的抽象能力为什么会这么强,目前还不得而知。只是就人机关系而言,我以为人之所以要发明机器(包括其它工具),就是为了解放自我,人去人干擅长的事——定性,机器去干机器擅长的事——定量。

家园 这个我同意

樊麾赢的两局棋谱没有公开,但是我们知道这两局是在“快棋”中赢的,AlphaGo确实犯了错误,犯的错误很简单,时间不够,所以收敛到了局部最优解

问题是,究竟多长时间才能收敛到了局部最优解?有没有某些局面(比如加藤英树提到的“复杂的对杀和连环劫”)需要太长时间而导致后面的棋没有足够时间?AlphaGo有没有能力避开这些局面?

我对围棋AI也是乐观其成的。期待有一天AI能解答几个我比较感兴趣的问题:

1. 黑棋的先手优势究竟有多大?我感觉围棋的最终结局是和棋,因为合理的贴目应该是个整数。

2. 人类跟“围棋之神”的差距究竟有几个子?

3. 中国古棋水平(如范西屏,黄龙士)究竟有多高?

全看树展主题 · 分页首页 上页
/ 6
下页 末页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河