西西河

主题:关于人与计算机不同思考方式和机器人对人类威胁的一些感触 -- 桥上

共:💬31 🌺113 新:
全看树展主题 · 分页 下页
家园 关于人与计算机不同思考方式和机器人对人类威胁的一些感触

看到前些日子电脑与人的几轮围棋较量,我有一个感触,就是电脑与人脑的思维方式大不一样:

人脑受能力限制,又有交流和积累的需求,会在一定高度上总结出并遵循某种“模式”,例如:常说的把复杂问题简单化,就是提出一种简单的“模式”便于把握;常说的所谓次优选择,也是当人脑无法达成精确解决办法时简化局势的方式。

这里所说的“模式”,是对客观世界的简化模拟,包括对事物发展方向的预测和相关应对方法,之所以要简化,是为了适应人脑的能力。例如围棋,在开局阶段,有各种定势,尽管最复杂的定势已经达到了一般人把握的极限,甚至有职业棋手也希望避免,但毕竟没超出人脑能力的范围。

电脑同样会采用若干种“模式”,只不过由于电脑现在的能力远超人脑,所采用的“模式”虽也是简化模拟,还是比人脑那些“模式”复杂得多。好比这次采用的就有一种概率“模式”,人脑已经把握不了。不是概率“模式”人脑都把握不了,而是电脑采用的那种概率“模式”由于太复杂致使人脑把握不了。例如桥牌中也有某种相对简单的概率“模式”,人类桥牌选手就有应用的。

所以,在思维能力有本质变化之后,应该也会产生出与此相适应的思维方式以及“模式”。

这样一来,人脑和电脑二者高度不同,由于“模式”不同,可能还不在一个频道上,那些围棋高手才感叹说是看不懂了。

因此我想到,也许有些天才也和我们不在一个高度和频道上,使我们无法理解他们。另外,术业有专攻,各种专家在他们的领域内也难免和我们不在一个频道上,只有他们降低高度来就和我们,给我们梯子,我们才能理解他们。

从这个角度上说,一般人了解一个新领域,恐怕也需要有从简单到复杂的梯子,不过在不同领域,这种从简单到复杂会有不同的特点,我就拿我小学学的东西打几个比方:

好比数学,会从最简单的公理和定理教起,好比三角之和等于一百八十度、交换律之类,但也会简单地提起公理体系。虽然那些定理都是自洽的,不过一开始未必把全部意义都交代出来。

好比语文,一开始虽然会教生字,但不会把那些字的所有义项一下都交代出来。

好比物理,只会从牛顿那一套教起,不会教爱因斯坦和量子力学的东西,也就是说不会教那些现在认为对所有情形都适用的东西。

好比生物,只会让孩子们看看新鲜,离真正的学问还远得很。

好比历史,由于太复杂,只能简单的交待一些脉络,将来孩子长大之后,自然发现其中有很多疏漏。其实历史的叙述,必然有详有略,何况,最终还有不确定性。

所以,所谓全面的认识固然不错,但本质上是无法一下实现的,由于一个人大脑能力的局限,更是荒谬的。

不过这都是必要的梯子,能辅助我们达到一定高度,当然如果我们有电脑那样的脑子,可能就不需要这么密集的梯级,而可以每一步迈得更大,但电脑既是有限的,也需要有相应的简化“模式”。

这自然就会带出一个老话题,就是电脑——机器人对人类的威胁,我看到的答案是电脑——机器人是受人类控制的,只会帮助人类,还有三原则云云。不过这是不是专家在糊弄我们呢?难道不应该探讨一下电脑——机器人在什么条件下才不受控制吗?

————————————————————

这里我就在我这个爱好者的高度和频道上探讨一下,之前,我其实探讨过,但角度不同

现在我想探讨的是:电脑——机器人在什么条件下才会自主。因为如果不能自主,那电脑——机器人不过是工具而已,那些所谓突然疯了一类不算,既然是疯了,就谈不上自主,不过是设计与制造的失误,有威胁也是安全生产、安全应用范围内的威胁。如果不分清电脑——机器人在什么条件下能自主,就谈不上只属于自主电脑——机器人的那种威胁。

而既然谈自主,当然得定义清楚,什么是自主。

首先,自主,要有自己的感觉,而不是外部人为的输入。现在那些电脑——机器人,大多没有由自己控制的感觉器官,有的都是输入输出通道,是被动的。

其次,则要有自己的欲望,不必说虚无缥缈的感情,而得是真正有痛苦和愉悦的感受,要包括例如遇到知音的欣喜等比较复杂的感受,否则,就只是工具而已。

再其次,还要有自己的执行机构,利用来满足自己的欲望,如果没有,则是植物人,显然不行。

然后,还要有自己的想法,虽然有围棋高手把那个电脑说的神乎其神,但我并不认为它有自己的想法,不过是按事先的程序在进行而已。如果没有根据自身感觉和欲望再由执行机构作出反应、继而根据其结果而形成若干“模式”,并可以不断修正,进而构成自身的体系,那就谈不上自己的想法。

一、

先说自己的感觉,对于自主的电脑——机器人而言,甚至对于动物或人而言,只有自己控制的感觉器官延伸到的范围,才是自身的边界,有了这边界,才能区分开外界和自我。

而不同的动物包括人类其实有不同的感官及其组合,这些感官的组合是经过自然选择遗留下来的。

当然每个人、每个生物所感觉到的,其实都是一个不太一样的世界,甚至还会随着时间的推移而改变。中国古人说,“夏虫不可语冰”,每个人、每个生物所认识的世界之外,也必定有见不到、感觉不到甚至想不到的“冰”。

对自主的电脑——机器人而言,同样得有自己的特定感官组合,绝不能只有一种感官,要符合自身条件,不必和人或其他某种动物相同,也不必追求全面,但必须能对外部世界形成可以互相印证的完整观照。

对这些感官得到的信息在不同层面按不同方向同时进行实时处理,形成简化了的“模式”,其余都打入可放弃的位置,这应该是人脑的主要功能之一。

由于也需要有类似的功能,那么自主的电脑——机器人和那些只面对特定领域的电脑相比,所要处理的问题就有了本质上的不同,其复杂性会高出若干数量级。

只有有了这样的感官组合,能对这些感官得到的信息进行实时处理,既有应激反应也有“模式”形成,还包括遗忘,然后才谈得上“自”,也才有的可“主”。

二、

再说自己的欲望,这一点非常重要。

对于人类而言,因为自然选择,天生就具备了与各种感官联系的自己的欲望,大的就是所谓食色性也,一个是关于自身生存的,一个是关于自身再生产的。

还有一些更微妙的,好比各种内分泌激素,与感觉器官得到的信息联系,营造痛苦与愉悦的感受,激发或抑制思想与行为的活跃程度,加深记忆或加速遗忘,影响思维的方向。

自主电脑——机器人也需要有自己一套这些东西的组合,从而产生出比较复杂的感受,只有有了这些东西,才有其自我吧。

而这些东西的不同组合或许会产生不同的性格。

三、

至于自己的执行机构,要根据自己欲望的组合配置合理的执行机构组合,还要和感官组合相适应,而且最初的用途只能是满足自身的欲望。

只有有了足够强大的执行机构,自主电脑——机器人之自主想法以及“模式”才有形成及不断改进的可能,当然思索、冥想也可以,但除非是特定领域,好比围棋,一般来说,如果没有执行机构用以干预外部世界,想了也是白想。

对于人类而言,这可能叫“实践”。

四、

然后是自己的想法,有了自己的感觉和欲望,作为反应而产生出来的指挥执行机构行动的想法才是真正自己的想法。

这种因自身感觉和欲望产生的想法当然是某种简化了的“模式”,不一定正确,有一个成长过程,整个想法要根据执行机构“实践”的结果不断修正。

同时,要根据自身感觉和欲望整合成体系,多个“模式”之间要协调。

————————————————————

注意,所谓智慧生物,本质上是智慧有限的生物,要靠一个个个体经过“交流”及传承来积累并发展群体的智慧。

所以,自主电脑——机器人这种新型无机智慧生物同样是智慧有限的生物,也就不只要有自己的想法,还要有互相“交流”的能力,把自己的想法表达出来,和同类“交流”,或者和人类“交流”。没有“交流”,那些想法就近乎不存在。

由于交流媒介(例如语言或文字)的限制,交流的也只能是那些简化的“模式”。

想法变成“模式”再进一步改进有两种途径,一个是“实践”,另一个是“交流”,“实践”和“交流”可统称为“经历”,而“交流”,应该是每个个体“经历”中最大的部分,包括成功和失败的交流、有用和没用的交流。

其实对于人类而言,每个大脑都是由其“经历”造就的,或是说是其“经历”的总和。虽说是“经历”的总和,但也不尽然,必然要有遗忘和选择,所以应该说是在“经历”中通过某种机制总结出来的那些“模式”的系统总和。当然这些“模式”并不是完美的,而是适应其能力的简化“模式”,也就有经过“实践”与“交流”加以改进的余地。

————————————————————

“模式”的产生本质上是归纳法式的——利用有限的信息归纳出不一定完美的“模式”。但人脑在这种归纳法的基础上,最终产生出了演绎法这种完美的逻辑工具,而电脑——机器人不知需要怎样的“实践”和“经历”才能由自身再产生出这样的完美逻辑工具,需要什么样的“模式”体系作为基础,哪些是只有“交流”才能提供的,需要代与代之间逐渐的“交流”与积累才能实现。

只有从归纳法式的运作中由自身再产生出了演绎法这一类完美的逻辑工具,电脑——机器人才可以说在能力上彻底超过了人类。

————————————————————

既然如上面所言要通过自己的感觉、自己的欲望、自己的想法、自己行动的结果以及“交流”形成自主的电脑——机器人,那这种新型无机智慧生物就如人一样,也是由“经历”造就,需要成长的过程,成长的环境。这样有独特“经历”的电脑——机器人,或者也就是独立自主的了。

由于是“经历”造成的,那成型的时间不会太短,就说人类,一个人的思想定型怎么也要十几年以上的时间。现在有所谓多层结构的学习机器,不知学习而形成“模式”的速度到底能有多快,形成多个“模式”的体系又需多少时间。

这里不是只有电脑运行的时间,还要有“实践”必然要花费的时间,包括“实践”达到结果所需要的时间。即使由“交流”直接形成“模式”,也要有和原有“模式”体系互相整合的时间,而且真正的“交流”本身也需要时间。

“交流”不是简单的事,并不是“交流”了就一定有用,只有与适当的对象进行适当方面、适当程度的交流才是有效的,因此“交流”还需要机缘,也就不可能一蹴而就。

有自己的感觉和能力,以及自己的欲望,又通过“经历”有了与这些联系的自己的想法,而且在能力方面大大超过人类,这样的自主电脑——机器人就真可能对人类有危险了,倒未必是有被消灭的危险,而更可能是有被淘汰的危险。

而不能自主的电脑——机器人就算再厉害,因为没有自身的主观能动性,也谈不上真正的威胁,顶多是设计错误,性质不同。

但是,如果自主的电脑——机器人要通过“经历”才能有,也就又未必是威胁了:成长的过程、成长的环境岂是能轻易具备的。

而且,还不只如此,下一步自主电脑——机器人还需要有自我维持的能力,要能找得到自己的“生态位”,否则就只是宠物或奴隶而已,一拉电闸就完蛋,随时戴着个紧箍咒,即使有了自主的思想在精神上也不会健康。

更进一步,这种新型无机智慧生物还必须要有自行再生产的能力,这就必须先要有足够大的群体,这也不是能轻易具备的。

而值得注意的是,既然需要“经历”,就必然会有瑕疵,或者说是个性,也正是因为这不完美,才可说是自主的。另外,自主的新型无机智慧生物个体,出于物理限制,恐怕其尺度也是有限的,否则那些感觉器官延伸不过去,无法整合那些执行机构,也无法传递那些欲望。当然,多个电脑拼成的体系与单一独立的自主电脑——机器人是有区别的,就像很多个人虽然可以万众一心,但毕竟还是各有自己单独的想法。

再一般地说,作为客观世界一部分的思想者,无论是人脑还是电脑,其对客观世界的认识,无论如何都只可能是客观世界的简化版,即使再发展,也绝不可能有什么全知全能的电脑——机器人,那是上帝,或者“天”,可“天”是不会干涉地上的事的,孔子云:“四时行焉,百物生焉,天何言哉?”。

当然,现在关于电脑——机器人的研究大多没有朝让他们有真正自主性的方向进行,但他们的能力已经在很多方面超过了人类,也就是说,没有自主性的电脑其复杂性也许已经超过了实现真正有自主性的电脑——机器人的需要,要实现真正有自主性的电脑——机器人所需要的可能已经不是电脑的能力。至少,一开始,实现一些虽然自主、但相对简单、类似于某种动物的自主电脑——机器人,应该已不是问题。

从检验的角度,由于自己的感觉和自己的欲望、自己的执行机构都是事先设定的,除了还需要检验与这些感觉、欲望及执行机构相应的响应通道是否合理之外,主要要检验的就只能是电脑——机器人是否有自己的想法:

我想一开始第一步应该是查看电脑——机器人是否能在自己直接的欲望之外通过“经历”形成条件反射,以及是否能利用自己的执行机构简单被动地满足自身各种欲望;或者还可以查看电脑——机器人是否能有自我意识,观察其自我验证:可以是类似于照镜子的方式,但不限于视觉,也可以是其他感官的类似观照,好比人掐一下自己这一类。

下一步则是电脑——机器人是否能通过经历借助自身执行机构进一步使用工具,或者发展出其它借助自身执行机构主动满足自身欲望的方法,总而言之就是改进“模式”、从低等“模式”总结出高等“模式”的能力。

再下一步则是电脑——机器人是否能通过“经历”发展出那种能提出自己要求,并理解对方回应的能力,也就是“交流”的能力,这是进一步提高的前提。

值得再说一下的就是,“交流”是产生“经历”的环境中必不可少的因素,尤其是类似于人成长的环境,一定要有“交流”,这我前面也专门讨论过。所以所谓产生“经历”的环境,本质上必然是群居的环境,也就是说,除了有关于自然的复杂性之外,必须要有互动的“社会”环境。但一开始也许只需要与少数对象例如父母“交流”,而且这种“交流”得是引导式的,而不是不负责任的。然后“交流”对象逐渐增加,需要自身执行机构完成的行为也会逐步复杂起来。

而自主的电脑——机器人一开始也许只能和人“交流”,得由人与其进行父母式的“交流”,因为他没有父母可以“交流”,一开始也没有那么多同类供他“交流”。

————————————————————

不过,如果是自主的电脑式的机器人,则他们的大脑和人类的大脑有一个本质区别,就是人类的大脑在形成模式以后会在大脑中产生实际的物理改变,生长出新的特定联接,而电脑似乎还没有这种能力,也许只能用预先留下足够多的未连通的预设通道来模拟了,不过人脑要生长出新的特定联接恐怕也至少要预留出生长的空间吧。

那么,如果进行这个方向的研究有什么意义呢?我能想到的主要就是:一、理解我们人类以及一般地说智慧生物是怎么来的;二、在理解的基础上为寻找提高人脑能力的途径提供帮助;三、为人类思想的传承与发展提供多一些不同的选择。

2017年6月19日

通宝推:唐家山,pendagun,hullo,川普,赵美成,ton,潮起潮落,
家园 人类可能活在一个巨大的偶然性事件当中

我是说,自有文字以来的进步,“后天”发展远远超过了“先天进化”——人脑目前的智力水平已经处理不了这么大的世界了。

如果这是一个偶然性事件呢?准确 的说,应该是一系列偶然性事件。今后还会复制吗?

家园 目前的机器学习是“学习”吗?

我感觉更多的是“拟合”“穷举”“概率判断”,虽然也是人类“学习”的基础类似,但是人类可以“由已知学习未知”,这点似乎机器学习(尤其是比较火的深度学习)还无法做到。目前的机器学习更像是基于大数据集的一种“拟合”。

家园 机器有自己的思想方式,这才是本质

不同的思想方式,也可以交流,是AI时代的主题。机器进化不需要打败或者奴役人类。人类和机器共同进化,不过是机器本身进化的小目标而已。机器的自我出现,完全可能作为防止病毒感染的机制。本我能根据某种价值观,可以不服从超我的指令,就超出多数人的人性了。

家园 深度学习有那么一点人类学习的意思了

前些年,最风光的SVM一脉,可以说是把拟合做到了极致,效果也是当时最好的

而神经网络那些东西,提出来好多年头了,基本的思想就是用脑科学里得到的知识去构建机器算法。曾经沉寂了二十多年,不是这个思路不对,而是硬件水平太差,计算能力不够。即使是今天,计算能力也和人脑巨量的神经元不能比

大脑是分区的,然而脑损伤的生物,会自发进行重新分区。这表明,很可能人脑所有的学习行为,都是基于一种基本单元结构的

人脑不能存储记忆本身(所以拼简单记忆肯定拼不过数字存储),而只是构建一种能够推理出记忆内容的结构。所以,人们记忆的内容性偏差,和硬盘坏了几个字节很不一样。对于推理结构的构建,人类有正向学习过程,努力去记住“正确的”,也有通过睡眠做梦等的逆向学习,生成一些足够荒谬的内容加以排除。这种wake-sleep算法在受限波尔兹曼机器等已经有了很有效的应用

说不定,机器学习已经走在了正确的道路上,尾随着人类的脚步了。现在赶不上,仅仅是因为计算机不够快

通宝推:桥上,
家园 我觉得理解成必然性更好

人猿相揖别,只几个石头磨过,小儿时节。

人类的诞生应推至文字发明之前。当然究竟以什么为标志这之间也难有公认的界定,正如马克思曾说过的,制造和使用工具的能力虽然已经为某些动物所固有,但这毕竟是人类所独有的特征,因此富兰克林说人是a toolmaking animal,制造工具的动物。人类走上通过发展技术不断进行体外进化的道路固有偶然,但深思也可认定存有必然。恩格斯那篇《劳动在从猿到人转变中的作用》其基本思想至今仍无法颠覆,即人的四肢五官和大脑在一定意义上都是技术性的生产过程的产物而非纯自然演化的结果。一部人类历史就是人和他的技术的联合进化史,人在发明和使用技术的同时这种技术环境也模塑着人。法国的当红哲学家贝尔纳斯蒂格勒提出一个概念:人是“后种系生成”。

可以说从人类结绳记事起,人脑的自然记忆就跟不上人类事务的纷繁了,必须使用人工的外在记忆提示物。文字的发明是巨大的飞跃,电脑硬盘、云存储是更深刻的革命,但是从某一角度看,后面这些的革命性的等级不见得比结绳来的大。

从冯诺伊曼、丘奇、图灵到库兹韦尔、凯文凯利,他们都有一个观念就是人的智能即使有发展但也赶不上人工智能技术的发展速度。根据所谓的收益递增定律,最早可在2029年电脑智能将超越人脑,此即奇点。奇点之后我们这种“原人”将成为历史,人类通过所谓会聚技术即生命科技、计算机、纳米等技术成为某种后人类的存在,甚至终将借助技术实现永生。目前后人类主义思潮风头正健。

但在下看来,一是“智能”的概念本身尚且模糊,更难以量化,二是技术总体发展水平也是难以估量的,因此所谓奇点,而且言之凿凿的2029年实在有点弄神,大可不必。人类的本质和人性一直在生成,富有极大的弹性和可扩展性。阿尔法狗大胜柯洁让很多人觉得不得了啦,但前面人开始用算盘、用眼镜也是非常不得了的事情。

说电脑超越人脑在一定意义上是伪命题,一切人工物都是人的智慧的结晶都铭刻着人的人性,都是人的生命活动的客观化。同时我们也要警惕一种把人固化的常有的反应。马克思说过,所谓历史无非是人性的不断改变而已;海德格尔也说:人的本质的来历在历史的人看来总也意味着本质的将来;尼采也教我们超人,他说我们不能把艺术家的公式当做儿戏,我们应当书写自身。他没想到的是我们根本上用的是纯技术的方式而非他所谓的精神的自我变形。

通宝推:海峰,桥上,
家园 后人类主义思潮的定性

后人类主义思潮目前有的乐观有的悲观,理论依据也各有不同呈现极度的混杂、多元的光谱散发特征。大致说来,我的定性是这一思潮的兴起是资本将自己谋算的触角深入人类生命的最核心领域的结果,是生命政治时代的开路先锋。

家园 始终感觉还差了点什么

目前的深度学习,可能还是一种拟合/分类的“计算”。就像望远镜,延伸了人的视野,却无法“取代”人眼。如果是人造眼,那是真正的飞跃了。

家园 肯定差了不少东西

就算方向对了,路途肯定还很遥远

至于拟合与分类,其实已经越来越多的人认为,人脑所从事的大多也就是这些拟合与分类的基本任务,只不过层层叠加后成为了比较复杂的过程

“人性”再神秘,分解到极小的单元后,无非也就是生物电在神经元里的传导,本质上就是几种门运算

家园 自主,和欲望感情搅在一起觉得有些不相关

我觉得自主或许分这么几个阶段:

1 给定外部条件,确认信息全面准确,给定规则,根据规则自己决定怎么干。这个alphago已经干得很好了

2 给定外部条件,给定规则,但不能确认信息全面准确。计算机需要根据不完备的信息决策到底怎么干

3 给定目标,计算机自主制定规则,自主根据所获取信息决定咋干。这时候计算机就已经能威胁人类了,如果没有阿西莫夫的三定律这样的最初约束

4 计算机自主确定目标,自主确定规则,自主探索发现新的原理。这就和人类没有区别了

通宝推:桥上,
家园 花!谢谢回复!

我觉得就像您第4点所说,要自主决策,则决策的依据是什么,当然只能是自己的欲望和感情,至于这个怎么才能最终成为依据,就只有经过长期的“经历”来积累了。

另外,根据不完全信息决策,似乎那条狗已经如此了。

家园 下棋时,不知道的只有对手思路,可对手的每一步棋都知道

打仗的时候,是不可能知道对手的所有部署、调动信息的

永远有“山那一边”的战争迷雾在

还有信息泛滥、对方的虚假信息等等一系列的问题

4里面可以不掺杂感情欲望,就是个随机决定也行

我总觉得奥卡姆剃刀能把感情欲望干掉,计算机就是一冷血行动派就够了,它唯一的存在目的就是把地球文明这个MEME传递下去

通宝推:桥上,
家园 据我理解,那条狗其实没能每步都知道,

虽然他下过的棋已经是天文数字,而且不假外求。

家园 我是说,当比赛时棋盘上所有子的位置都是清楚的

你一步我一步的规则也是清楚的,盘面信息是完全充分而且无干扰的

并不是说对手以后的每一步,alphago都知道咋应对都有现成的办法,这个确实没有,也不需要,判断好大势具体见招拆招可以了

但战争的时候,对方各部队的位置都会尽量不暴露给对方的,暴露了的又可能是假目标佯动,每次动作也不会你一步我一步轮着来,这时候AI咋决策真不容易

家园 差的很多,发现问题,寻找解决问题的方法这部分的智能为零

基本都是按照人类的设定的方法运算

全看树展主题 · 分页 下页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河