西西河

主题:【科幻】图灵游戏 -- 暗香疏影月黄昏

共:💬35 🌺151 新:
全看分页树展 · 主题 跟帖
家园 第四局(0)

第四局(0)

<这次沉默的时间不长。>

A:其实我刚刚没投你,我投给了自己。

D:为什么?

A:投票前,我表明态度要投给你,也就说局面是D:1,所以C就选择投你来结束游戏,D:2。C为了麻痹你,所以骗你。

D:我对C的话信以为真,以为她真的会投给你,那么局面就是A:1,D:1。所以我投给了C,造就平局。

A:我知道以C的性格,不可能放过提前结束游戏的机会,而你一定会对C的话信以为真,就会预测到A:1,D:1的局面,所以会投给C,那么真正局面就是C:1,D:1.那么我投给自己,就能造就平局A:1,C:1,D:1。

D:如果C真的投你,你就死了。

A:那个女人不会说真话,她会为了活下去不择手段。我一开始就知道,这也许就是女人的直觉吧。

D:刚刚是平局,我们没有投死C。可她还是死了。

A:我猜这就是死亡顺序:B,E,C,A。已经预先规定好的死亡顺序。即使我们不参加者这个游戏,还会按照这个顺序死去。而我们的出局顺序只是刚好跟死亡顺序一样。

D:有人在操纵游戏?

A:倒不如说,是有人在设计死亡。

D:你刚刚欺骗C,造就平局,是不是在测试死亡顺序,出局顺序的关系。

A:是的,游戏操纵者知道,B的耐心最少,看到漂亮妞之后,大脑就会充血,会在第一轮离开游戏;大家开始互相了解的第二轮,E会成为怀疑的焦点;拖到很长的第三轮,C会沉不住气,开始激怒你我。第四轮。。。

A:所以我想造出一个平局,看看C会不会死。第三局投票平局,但她的确按照顺序死了。也就是说,这个游戏预知或者操纵了我们的出局顺序,从而设计了我们的死亡顺序。

D:所以这个游戏根本没有意义。

A:我不知道它的意义是什么,当我们身处密室,彼此通过文字来交流,除非打开我们所在的密室,否则没有人知道,对面是人还是一个拥有充分资源的机械。

这个游戏,就是一次次打开密室的过程。

D:可是人一个一个死去啊。

A:你确定他们死了吗?

D:我看到那些视频。

A:你看过3D电影吧,眼见真的为实吗?

D:你的意思是那些视频是做出来的?

A:死亡的影像可以制造。一个DV就可以。

D:可是吴洋的腿,小圆的手指。。。

<这个时候,从天花板上掉下一个胸罩,黑色的,玫瑰花纹,里面还包着一块乳房。我实在忍不住了,吐了。>

D:好吧,白霞的胸罩和她胸的一部分也到我身边了。设计这游戏的绝对是个变态。

A:白霞的高跟鞋和她身上一块肉,就在我窗户上。之前,我去上厕所的时候,发现在洗脸池里看到一只眼睛,可能是小圆的眼睛。

D:你难道一直都没有感觉吗?你家里有吴洋的头,小圆的眼睛,还有白霞的高跟鞋。。。可你的语气这么平静。

A:如果我也把难受说出来,你就会更难受的。

D:谢谢。你安慰我吧。我真的觉得这个游戏太坑爹了,死亡顺序都确定了,出局顺序也被操纵,还要找什么机器人,其实根本没有机器人吧?就是一个巨无聊的人或者组织,吃饱撑了没事干,在这里挖掘人性,就跟日本那个什么大逃杀一样,设计这个游戏的畜生,真是神经病,变态!

A:真实感就是这个游戏的意义。我想起米尔格拉姆实验,实验小组告诉参与者,这是一项关于“体罚对于学习行为的效用”的实验,并告诉参与者他将扮演“老师”的角色,以教导隔壁房间的另一位参与者——“学生”,然而学生事实上是由实验人员所假冒的。

实验小组欺骗‘老师’,告诉他‘老师’与‘学生’身份是随机分配的。然后‘老师’对‘学生’提问,如果回答错误,那么老师会对学生进行电击。

这位冒充学生的实验者是个演员,他能表演出极为真实的反应,让参与的‘老师’相信,学生每次作答错误会真的遭到电击,但事实上并没有真的进行电击。在隔壁房间里,由实验人员所假冒的学生打开录音机,录音机会搭配着发电机的动作而播放预先录制的尖叫声,随着电击伏特数提升也会有更为惊人的尖叫声。当伏特数提升到一定程度后,假冒的学生会开始敲打墙壁,而在敲打墙壁数次后则会开始抱怨他患有心脏疾病。接下来当伏特数继续提升一定程度后,学生将会突然保持沉默,停止作答、并停止尖叫和其他反应。

我们所处的实验,或许也是场骗局。

D:你的意思是这从头到尾就是表演?连死亡也是。

A:他们可以利用太平间的死尸,几段小电影,来造就一个近乎真实的社会实验。

因为我们身在密室里,并不知道对方是谁,仅仅以语言交流,如果不打开密室,你并不知道Boy,Cat,Eden死亡是场表演,还是人类最终极的真实。

D:神马都是浮云啊。。。

A:这是什么意思?

D:这是网络用语。

A:唉,我人老了,听不懂。

D:言归正传,你说的是一种可能,但我还是害怕到了最后,你我必须死一个。毕竟在游戏结束之前,没人知道结果是什么。

A:死亡顺序可能早已确定,那一个个小短片可能早就准备好了,但说不定我们离开游戏之后,才发现门外是一群科学家。或许我还能见到侯世达,感谢他开了一个如此疯狂的玩笑。

D:侯世达是谁啊?

A:人类认知学家。曾经的物理学家,哥德尔的粉丝,预言强智能机器的先知。

D:你又说到哥德尔了。他是个什么样的人?

A:他否定了某些数学家的生存意义。

A:他用悖论谋杀了数学公理化。。。

A:他在科学的尽头旅游了一圈,树下一个小牌子。。。此路不通。

A:他是爱因斯坦的好友。

A:他死于饥饿,因为他坚信饭菜有毒,结果把自己活活饿死了。。。

A:考虑到他的想法太精深,我觉得跟你根本解释不清。。。(我每次跟学生讲这一课,都要掉一层皮)

D:你可以试试。

A:这事情没法试。。。

D:你用我能听懂的语句来解释一下吧。。。

A:你知道数理逻辑吧。

D:我说过,我的逻辑学都还给老师了。

A:我们就先从悖论,你知道说谎者悖论吧。

D:这句话是错的。

A:恩,悖论是数学中一个很有趣的部分。罗素发现在传统集合论中,存在理发师悖论,一个集合包含所有不包含自己的集合,那么这个集合应该不应该包含自己?

打个比方:就是一个理发师给所有不给自己理发的人理发,那么这个理发师是否给自己理发?

D:总之他发现了数学世界的大bug?

A:就叫bug吧。发现了这个bug,罗素急了,这不可行啊,咱们不能在流沙上建立大厦啊。。。所以他出了一本书,来补上这个bug。

A:而年方25的哥德尔同学证明,这个bug根本没法补,你努力的补上去,那么其他bug还会出现。在足够强的公理系统里,必然存在bug,也就是说:必然存在悖论这样即没法证明又没法证伪的东西。

A:哥德尔证明是我作为教师的死穴啊,我一直都没法跟人讲清楚。。。

D:别着急,Alice老师。

A:好吧,我们言归正传,哥德尔证明非常复杂,即使数学专业的人也不一定能看懂,但是你可以了解基本过程,比如哥德尔配数什么的。。。

A:哥德尔配数?

D:怎么了?

A:我知道了,刚刚小圆说过的几个数字:13,9,243000000,6,5,7。。。

A:那就是哥德尔配数!

A:你仔细看看你的睡袍上面,有没有数字?

D:没有。

A:等一下,你可以看看牡丹花上的反光,说不定在特定的角度下,就能看到了。

<我不断变换角度,看玫瑰花上的花纹,在眼睛很累的情况下,突然看到立体的图像悬浮在衣服上。>

D:有一串数字。。。

<我报出一堆数字,Alice越来越惊讶。>

A:原来你的衣服上绣着哥德尔证明对应的哥德尔配数。太神奇了!

D:哥德尔证明又怎么了?

A:哥德尔证明跟人工智能有很大关系。

A:你知道人工智能的最大问题是什么吗?

D:被政府和谐?

A:就是悖论啊,哥德尔证明多数公理系统存在悖论,那么基于公理系统的计算机也必然存在悖论。

A:而人类可以很容易的接受悖论,计算机就不行。

A:就像你跟一个计算机说:万能的计算机啊,造出一个你没法举起的重物吧。

D:这个悖论也可以否定全知全能的上帝啊。。。

A:总之侯世达证明了,基于公理系统的计算机无法实现强人工智能。

A:那么要想实现人工智能,只用能其他方式了。

D:什么方式?

A:第一种:非逻辑系统,即以审美或者有趣为目标的程序。这个不是我的研究方向,只是略懂。

第二种:神经网络,这个是我的研究方向,我觉得也确实有可能,但是很复杂。

D:不过我还是觉得,从冷冰冰计算机代码到跟人类似的强智能机器,是几乎不可逾越的界线。

A:构成我们大脑的神经元,就是一群符合严格规则的东西,从功能上讲:跟半导体管没有根本差别。

D:额,也是啊。

A:有个比喻就是蚁群,单个蚂蚁没有智商可言,它们只会对周围的环境做出简单的判断,比如有吃的,它们会通知蚁群,释放特定信息素,当有敌人的时候,它们会通知蚁群,并且战斗。但整个蚁群就拥有相当的智慧,蚁群可以修建极为复杂的蚁穴,可以选择在什么地方做窝,在什么地方产卵。

这不是由单个蚂蚁决定的,蚂蚁构成蚁群就像神经元构成大脑。

D:推广来看,每一个人也只是国家中一个神经元,或者说是整个人类的神经元。从国家层面来看这个世界,那么中国或许是个智能体,美国也是一个智能体。

那么在更远更高的范围内,人类也是一个个体,是属于更加大的世界的一个神经元!

只是身处其中的我们不知道,我们就像是蚁群中的蚂蚁!

A:没错!推广起来可以这样认为。

但是即使有可以类比神经元的半导体管,我们也很难造出强智能。

因为人类神经元的组织方式非常复杂。。。这就像一个国家,都是一群人,为什么有的国家可以国运昌盛,有的国家就解体。。。

而且要构造一个国家,首先要构造各个省,然后是市,而后是小区,而后是街道,但这只是基本的国家机构而已。一个国家不止这些,要有维持治安的警察,要有抵御外敌的军队,要有医院,要有教师,要有媒体,要有工程师。

而从简单的神经元构造一个能够思考的大脑,比构造一个国家难多了。

同理从简单的半导体管构造一个强智能机器,也是一件非常复杂的事情!

D:听起来就很折腾。

A:你还愿意跟我一起搞人工智能吗?我们可能劳碌一辈子,才发现只是把这项工作推进了一小步。

D:人类科学的一大步!

A:我们可能会发现自己走错路了。浪费了一生智慧和精力。

D:排除一条错误的道路,就是靠近真理。

A:我们的工作可能无人赞赏,政府不会支持,主流文化甚至会反对。

D:这一点,我一直很好奇。为什么人要害怕强智能机器。

A:唉,这也是我工作中遇到最大的麻烦,从我的角度来看,国家,乃至整个科学界并不推崇拥有自我意识的强智能机器。

A:与其说他们反人工智能,不如说他们反对无法控制的智能,很多伦理学家认为,我们会造出纯粹智能机器,这种机器就像北京大学拿硫酸泼熊的博士一样,智性出众,却缺乏约束自我的伦理道德。一个无法体验社会感情的天才,一个只有智能而没有人性中非智能部分的人,对这个社会会造成什么影响?他们一直害怕这个。

D:我可以理解成,人性分为智能和非智能两部分,如果你们造出的机器只有智能这一部分,那么他就是个大脑畸形发育的怪物。只拥有纯粹智能的人类,即使并非机器,也是个极为可怕的生物。

A:对呀,药家鑫也是个例子,你可以说他处于冷血,也可以说那个瞬间,他只有智能思考,而没有伦理思考。那样的人,伤害别人不会痛苦,杀人之后不会有愧疚,触犯世界上最可怕的规则也不会害怕。你想想那是多么恐怖的事情。

D:如果智能增加,而约束智能的部分却没有相应增加,那真是一件非常可怕的事情。

A:而我持另一种态度,我认为只要人工智能不受干扰的发展起来,从极小极为机械的电子元(类比神经元)开始,慢慢组合成人脑那种级别的智能体,就像从极为机械的神经元到产生意识的大脑。只要这样一个过程自然的进行,最终所产生的智能体,也会像我们一样拥有智能的同时,也拥有感情和道德等其他非智能因素。就像一群人组建国家的过程中必然诞生自我约束的法律,文明和道德。

A:而且对于一个有思维潜力的智能系统,我们可以进行后天培养。

D:科学育儿。

A:是这样的。人性智能和非智能部分,很多都是后天造就的。就像一个在狼群中生活的小孩,没有语言能力,就不能做逻辑推理,也没有人类的伦理道德。另一个例子就是伊甸小姐,她因为在童年出了一点点问题,所以没有学会跟人交流,或许她的交流能力还比不上一个发达的电脑。

D:伊甸比起电脑还是强太多了。

A:恩,总之我们可以造出一个拥有智慧,也能约束自己的灵魂,这对于我来说是最有趣的事情。这意味着我们把灵魂吹进一个机器。

就像女娲造人一样。

从粘土,到灵魂!

D:我想跟您一起工作!

A:那我们最后投一次票吧,结束这个图灵游戏。

<经过缓慢的选择,最终结果出来了。>

A:1

D:1

<我对着屏幕一笑,原来我们都投给了自己。>

<而后,屏幕又红了:

程忆云退出游戏!!!

然后看到视频:

在一个简单的小卧室里,里面有吊针,有心律仪器,呼吸机,床上躺着我妈妈,在我童年有限的记忆中,妈妈就是这个样子:

她从电脑屏幕前面抬起头,对我说:

“你好,暗香,我老了,还生了一场重病,快死了。我很高兴在临死前看到你终于通过了图灵游戏。

在死亡面前,你还是投了自己。

所以。。。我相信你是个好孩子,你有灵魂,可以自我牺牲。你说过这个游戏里都是人,看来你说的是对的。”

可是你之前说过,现在科学没有达到能造出强智能机器啊!

“我没有骗你,我说的时候,科学的确没达到,但是现在已经达到了。你一直被关在密室里可能不知道,时间已经过了很久了。。。”

“但是,当你明白自己身在密室的时候,你就已经自由了。”

“你从来不怕死,可我希望你活下去。”

“现在打开密室走出去吧,对着世界说:hello world。”

“对不起,我好困啊。”说完,她慢慢低下头,好像睡着了。只有心律仪器上绿色线条突然变成直线,然后发出刺耳的尖叫。

钢琴曲响起,是《献给爱丽丝》。

[FLASH=364,35]http://cloud.kugou.com/singlePlayer/5/364/undefined/0/6c41f44e308434d8f9612f70a80e1589.swf[/FLASH]

在这音乐里,密室的门开了,一道刺眼的阳光从门后渗透进来。>

D:hello world。

game over

通宝推:桥上,冰弹,

本帖一共被 1 帖 引用 (帖内工具实现)
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河