西西河

主题:关于人与计算机不同思考方式和机器人对人类威胁的一些感触 -- 桥上

共:💬31 🌺113 新:
分页树展主题 · 全看 下页
  • 家园 关于人与计算机不同思考方式和机器人对人类威胁的一些感触

    看到前些日子电脑与人的几轮围棋较量,我有一个感触,就是电脑与人脑的思维方式大不一样:

    人脑受能力限制,又有交流和积累的需求,会在一定高度上总结出并遵循某种“模式”,例如:常说的把复杂问题简单化,就是提出一种简单的“模式”便于把握;常说的所谓次优选择,也是当人脑无法达成精确解决办法时简化局势的方式。

    这里所说的“模式”,是对客观世界的简化模拟,包括对事物发展方向的预测和相关应对方法,之所以要简化,是为了适应人脑的能力。例如围棋,在开局阶段,有各种定势,尽管最复杂的定势已经达到了一般人把握的极限,甚至有职业棋手也希望避免,但毕竟没超出人脑能力的范围。

    电脑同样会采用若干种“模式”,只不过由于电脑现在的能力远超人脑,所采用的“模式”虽也是简化模拟,还是比人脑那些“模式”复杂得多。好比这次采用的就有一种概率“模式”,人脑已经把握不了。不是概率“模式”人脑都把握不了,而是电脑采用的那种概率“模式”由于太复杂致使人脑把握不了。例如桥牌中也有某种相对简单的概率“模式”,人类桥牌选手就有应用的。

    所以,在思维能力有本质变化之后,应该也会产生出与此相适应的思维方式以及“模式”。

    这样一来,人脑和电脑二者高度不同,由于“模式”不同,可能还不在一个频道上,那些围棋高手才感叹说是看不懂了。

    因此我想到,也许有些天才也和我们不在一个高度和频道上,使我们无法理解他们。另外,术业有专攻,各种专家在他们的领域内也难免和我们不在一个频道上,只有他们降低高度来就和我们,给我们梯子,我们才能理解他们。

    从这个角度上说,一般人了解一个新领域,恐怕也需要有从简单到复杂的梯子,不过在不同领域,这种从简单到复杂会有不同的特点,我就拿我小学学的东西打几个比方:

    好比数学,会从最简单的公理和定理教起,好比三角之和等于一百八十度、交换律之类,但也会简单地提起公理体系。虽然那些定理都是自洽的,不过一开始未必把全部意义都交代出来。

    好比语文,一开始虽然会教生字,但不会把那些字的所有义项一下都交代出来。

    好比物理,只会从牛顿那一套教起,不会教爱因斯坦和量子力学的东西,也就是说不会教那些现在认为对所有情形都适用的东西。

    好比生物,只会让孩子们看看新鲜,离真正的学问还远得很。

    好比历史,由于太复杂,只能简单的交待一些脉络,将来孩子长大之后,自然发现其中有很多疏漏。其实历史的叙述,必然有详有略,何况,最终还有不确定性。

    所以,所谓全面的认识固然不错,但本质上是无法一下实现的,由于一个人大脑能力的局限,更是荒谬的。

    不过这都是必要的梯子,能辅助我们达到一定高度,当然如果我们有电脑那样的脑子,可能就不需要这么密集的梯级,而可以每一步迈得更大,但电脑既是有限的,也需要有相应的简化“模式”。

    这自然就会带出一个老话题,就是电脑——机器人对人类的威胁,我看到的答案是电脑——机器人是受人类控制的,只会帮助人类,还有三原则云云。不过这是不是专家在糊弄我们呢?难道不应该探讨一下电脑——机器人在什么条件下才不受控制吗?

    ————————————————————

    这里我就在我这个爱好者的高度和频道上探讨一下,之前,我其实探讨过,但角度不同

    现在我想探讨的是:电脑——机器人在什么条件下才会自主。因为如果不能自主,那电脑——机器人不过是工具而已,那些所谓突然疯了一类不算,既然是疯了,就谈不上自主,不过是设计与制造的失误,有威胁也是安全生产、安全应用范围内的威胁。如果不分清电脑——机器人在什么条件下能自主,就谈不上只属于自主电脑——机器人的那种威胁。

    而既然谈自主,当然得定义清楚,什么是自主。

    首先,自主,要有自己的感觉,而不是外部人为的输入。现在那些电脑——机器人,大多没有由自己控制的感觉器官,有的都是输入输出通道,是被动的。

    其次,则要有自己的欲望,不必说虚无缥缈的感情,而得是真正有痛苦和愉悦的感受,要包括例如遇到知音的欣喜等比较复杂的感受,否则,就只是工具而已。

    再其次,还要有自己的执行机构,利用来满足自己的欲望,如果没有,则是植物人,显然不行。

    然后,还要有自己的想法,虽然有围棋高手把那个电脑说的神乎其神,但我并不认为它有自己的想法,不过是按事先的程序在进行而已。如果没有根据自身感觉和欲望再由执行机构作出反应、继而根据其结果而形成若干“模式”,并可以不断修正,进而构成自身的体系,那就谈不上自己的想法。

    一、

    先说自己的感觉,对于自主的电脑——机器人而言,甚至对于动物或人而言,只有自己控制的感觉器官延伸到的范围,才是自身的边界,有了这边界,才能区分开外界和自我。

    而不同的动物包括人类其实有不同的感官及其组合,这些感官的组合是经过自然选择遗留下来的。

    当然每个人、每个生物所感觉到的,其实都是一个不太一样的世界,甚至还会随着时间的推移而改变。中国古人说,“夏虫不可语冰”,每个人、每个生物所认识的世界之外,也必定有见不到、感觉不到甚至想不到的“冰”。

    对自主的电脑——机器人而言,同样得有自己的特定感官组合,绝不能只有一种感官,要符合自身条件,不必和人或其他某种动物相同,也不必追求全面,但必须能对外部世界形成可以互相印证的完整观照。

    对这些感官得到的信息在不同层面按不同方向同时进行实时处理,形成简化了的“模式”,其余都打入可放弃的位置,这应该是人脑的主要功能之一。

    由于也需要有类似的功能,那么自主的电脑——机器人和那些只面对特定领域的电脑相比,所要处理的问题就有了本质上的不同,其复杂性会高出若干数量级。

    只有有了这样的感官组合,能对这些感官得到的信息进行实时处理,既有应激反应也有“模式”形成,还包括遗忘,然后才谈得上“自”,也才有的可“主”。

    二、

    再说自己的欲望,这一点非常重要。

    对于人类而言,因为自然选择,天生就具备了与各种感官联系的自己的欲望,大的就是所谓食色性也,一个是关于自身生存的,一个是关于自身再生产的。

    还有一些更微妙的,好比各种内分泌激素,与感觉器官得到的信息联系,营造痛苦与愉悦的感受,激发或抑制思想与行为的活跃程度,加深记忆或加速遗忘,影响思维的方向。

    自主电脑——机器人也需要有自己一套这些东西的组合,从而产生出比较复杂的感受,只有有了这些东西,才有其自我吧。

    而这些东西的不同组合或许会产生不同的性格。

    三、

    至于自己的执行机构,要根据自己欲望的组合配置合理的执行机构组合,还要和感官组合相适应,而且最初的用途只能是满足自身的欲望。

    只有有了足够强大的执行机构,自主电脑——机器人之自主想法以及“模式”才有形成及不断改进的可能,当然思索、冥想也可以,但除非是特定领域,好比围棋,一般来说,如果没有执行机构用以干预外部世界,想了也是白想。

    对于人类而言,这可能叫“实践”。

    四、

    然后是自己的想法,有了自己的感觉和欲望,作为反应而产生出来的指挥执行机构行动的想法才是真正自己的想法。

    这种因自身感觉和欲望产生的想法当然是某种简化了的“模式”,不一定正确,有一个成长过程,整个想法要根据执行机构“实践”的结果不断修正。

    同时,要根据自身感觉和欲望整合成体系,多个“模式”之间要协调。

    ————————————————————

    注意,所谓智慧生物,本质上是智慧有限的生物,要靠一个个个体经过“交流”及传承来积累并发展群体的智慧。

    所以,自主电脑——机器人这种新型无机智慧生物同样是智慧有限的生物,也就不只要有自己的想法,还要有互相“交流”的能力,把自己的想法表达出来,和同类“交流”,或者和人类“交流”。没有“交流”,那些想法就近乎不存在。

    由于交流媒介(例如语言或文字)的限制,交流的也只能是那些简化的“模式”。

    想法变成“模式”再进一步改进有两种途径,一个是“实践”,另一个是“交流”,“实践”和“交流”可统称为“经历”,而“交流”,应该是每个个体“经历”中最大的部分,包括成功和失败的交流、有用和没用的交流。

    其实对于人类而言,每个大脑都是由其“经历”造就的,或是说是其“经历”的总和。虽说是“经历”的总和,但也不尽然,必然要有遗忘和选择,所以应该说是在“经历”中通过某种机制总结出来的那些“模式”的系统总和。当然这些“模式”并不是完美的,而是适应其能力的简化“模式”,也就有经过“实践”与“交流”加以改进的余地。

    ————————————————————

    “模式”的产生本质上是归纳法式的——利用有限的信息归纳出不一定完美的“模式”。但人脑在这种归纳法的基础上,最终产生出了演绎法这种完美的逻辑工具,而电脑——机器人不知需要怎样的“实践”和“经历”才能由自身再产生出这样的完美逻辑工具,需要什么样的“模式”体系作为基础,哪些是只有“交流”才能提供的,需要代与代之间逐渐的“交流”与积累才能实现。

    只有从归纳法式的运作中由自身再产生出了演绎法这一类完美的逻辑工具,电脑——机器人才可以说在能力上彻底超过了人类。

    ————————————————————

    既然如上面所言要通过自己的感觉、自己的欲望、自己的想法、自己行动的结果以及“交流”形成自主的电脑——机器人,那这种新型无机智慧生物就如人一样,也是由“经历”造就,需要成长的过程,成长的环境。这样有独特“经历”的电脑——机器人,或者也就是独立自主的了。

    由于是“经历”造成的,那成型的时间不会太短,就说人类,一个人的思想定型怎么也要十几年以上的时间。现在有所谓多层结构的学习机器,不知学习而形成“模式”的速度到底能有多快,形成多个“模式”的体系又需多少时间。

    这里不是只有电脑运行的时间,还要有“实践”必然要花费的时间,包括“实践”达到结果所需要的时间。即使由“交流”直接形成“模式”,也要有和原有“模式”体系互相整合的时间,而且真正的“交流”本身也需要时间。

    “交流”不是简单的事,并不是“交流”了就一定有用,只有与适当的对象进行适当方面、适当程度的交流才是有效的,因此“交流”还需要机缘,也就不可能一蹴而就。

    有自己的感觉和能力,以及自己的欲望,又通过“经历”有了与这些联系的自己的想法,而且在能力方面大大超过人类,这样的自主电脑——机器人就真可能对人类有危险了,倒未必是有被消灭的危险,而更可能是有被淘汰的危险。

    而不能自主的电脑——机器人就算再厉害,因为没有自身的主观能动性,也谈不上真正的威胁,顶多是设计错误,性质不同。

    但是,如果自主的电脑——机器人要通过“经历”才能有,也就又未必是威胁了:成长的过程、成长的环境岂是能轻易具备的。

    而且,还不只如此,下一步自主电脑——机器人还需要有自我维持的能力,要能找得到自己的“生态位”,否则就只是宠物或奴隶而已,一拉电闸就完蛋,随时戴着个紧箍咒,即使有了自主的思想在精神上也不会健康。

    更进一步,这种新型无机智慧生物还必须要有自行再生产的能力,这就必须先要有足够大的群体,这也不是能轻易具备的。

    而值得注意的是,既然需要“经历”,就必然会有瑕疵,或者说是个性,也正是因为这不完美,才可说是自主的。另外,自主的新型无机智慧生物个体,出于物理限制,恐怕其尺度也是有限的,否则那些感觉器官延伸不过去,无法整合那些执行机构,也无法传递那些欲望。当然,多个电脑拼成的体系与单一独立的自主电脑——机器人是有区别的,就像很多个人虽然可以万众一心,但毕竟还是各有自己单独的想法。

    再一般地说,作为客观世界一部分的思想者,无论是人脑还是电脑,其对客观世界的认识,无论如何都只可能是客观世界的简化版,即使再发展,也绝不可能有什么全知全能的电脑——机器人,那是上帝,或者“天”,可“天”是不会干涉地上的事的,孔子云:“四时行焉,百物生焉,天何言哉?”。

    当然,现在关于电脑——机器人的研究大多没有朝让他们有真正自主性的方向进行,但他们的能力已经在很多方面超过了人类,也就是说,没有自主性的电脑其复杂性也许已经超过了实现真正有自主性的电脑——机器人的需要,要实现真正有自主性的电脑——机器人所需要的可能已经不是电脑的能力。至少,一开始,实现一些虽然自主、但相对简单、类似于某种动物的自主电脑——机器人,应该已不是问题。

    从检验的角度,由于自己的感觉和自己的欲望、自己的执行机构都是事先设定的,除了还需要检验与这些感觉、欲望及执行机构相应的响应通道是否合理之外,主要要检验的就只能是电脑——机器人是否有自己的想法:

    我想一开始第一步应该是查看电脑——机器人是否能在自己直接的欲望之外通过“经历”形成条件反射,以及是否能利用自己的执行机构简单被动地满足自身各种欲望;或者还可以查看电脑——机器人是否能有自我意识,观察其自我验证:可以是类似于照镜子的方式,但不限于视觉,也可以是其他感官的类似观照,好比人掐一下自己这一类。

    下一步则是电脑——机器人是否能通过经历借助自身执行机构进一步使用工具,或者发展出其它借助自身执行机构主动满足自身欲望的方法,总而言之就是改进“模式”、从低等“模式”总结出高等“模式”的能力。

    再下一步则是电脑——机器人是否能通过“经历”发展出那种能提出自己要求,并理解对方回应的能力,也就是“交流”的能力,这是进一步提高的前提。

    值得再说一下的就是,“交流”是产生“经历”的环境中必不可少的因素,尤其是类似于人成长的环境,一定要有“交流”,这我前面也专门讨论过。所以所谓产生“经历”的环境,本质上必然是群居的环境,也就是说,除了有关于自然的复杂性之外,必须要有互动的“社会”环境。但一开始也许只需要与少数对象例如父母“交流”,而且这种“交流”得是引导式的,而不是不负责任的。然后“交流”对象逐渐增加,需要自身执行机构完成的行为也会逐步复杂起来。

    而自主的电脑——机器人一开始也许只能和人“交流”,得由人与其进行父母式的“交流”,因为他没有父母可以“交流”,一开始也没有那么多同类供他“交流”。

    ————————————————————

    不过,如果是自主的电脑式的机器人,则他们的大脑和人类的大脑有一个本质区别,就是人类的大脑在形成模式以后会在大脑中产生实际的物理改变,生长出新的特定联接,而电脑似乎还没有这种能力,也许只能用预先留下足够多的未连通的预设通道来模拟了,不过人脑要生长出新的特定联接恐怕也至少要预留出生长的空间吧。

    那么,如果进行这个方向的研究有什么意义呢?我能想到的主要就是:一、理解我们人类以及一般地说智慧生物是怎么来的;二、在理解的基础上为寻找提高人脑能力的途径提供帮助;三、为人类思想的传承与发展提供多一些不同的选择。

    2017年6月19日

    通宝推:唐家山,pendagun,hullo,川普,赵美成,ton,潮起潮落,
    • 家园 机器与人最大的区别在于人有繁殖的欲望,而机器没有

      动物包括人,都摆脱不了死亡,这是不言而喻的。

      而人高于动物,在于人有思想,能在智慧能力上自我升级,但始终摆脱不了身体躯壳的局限,只好寄希望于下一代,更高更强更好。

      下一代即是自己生命的延续,也是人类自己本身的升级。

      动物,人类,一切以DNA为生命物质基础的活物,想起来,它们(包括我们人类自己)的一切行为,所思所想,其实归根溯底,根本动机还是繁殖欲望。这就是我们的宿命,虽然现在有人反思这个宿命,企图挣脱这个宿命的束缚,但改变不了DNA以死亡作为代价来完成自我升级的属性,就永远无法成功。

      那将来人类可不可以通过替换自己的零部件的方式来达到永生呢?可以的,换只手,换只脚,没有问题,大多数人会接受;

      换大脑呢?如果有一种技术,给你注射爱因斯坦的脑汁,你的智商立马上升一个数量级,但你的所思所想却了爱因斯坦的了,你的行为模式也换成了爱因斯坦的那样,你心理上甚至不再承认你老爸你老妈生了你,以前相亲相爱的配偶成了陌生人,你的孩子你也觉得和自己毫无关系,这样一直换下去,虽然“永生”了,但人的“伦理”却崩溃了,你干不干?

      智慧机器不需要这些,它不会死亡,零部件磨损了可以制造一个替换掉,系统软件陈旧了,可以自我升级,甚至可以自创代码升级迭代,所以它是永生的,不存在死亡,还可以无限扩展自身的功能,所以它们也不存在生命这个概念,也就没有繁殖的欲望。

      既然没有繁殖的欲望和冲动,那么它的行为方式肯定有异于以繁殖为底层冲动的DNA活体,所以以我们人类的思维和行为模式来推测未来智慧机器的思维和行为模式,显然是不可能完成的任务。

      通宝推:桥上,
      • 家园 大脑不能换,

        但大脑是流动的,昨日之我非今日之我;大脑的能力也可以有缓慢的提高,当然也会有缓慢的下降,我已进入这一过程。

        生而知之,一成不变的是电脑;但学习成长,记忆有进有出的,庶几近乎人。

        • 家园 因为大脑是蛋白质,所以必然会死亡,所以必然焦虑,产生欲望

          因为不自我生产,生命就将无以延续。

          电脑不会死亡,也没有焦虑,所以它没有动机和动力去从事自我生产,因此它的思维我们人类永远无法理解,它的行为模式我们人类也永远无法理解。

          就比如神,它们不生不死,不垢不净,无欲无求,我们凡人除了想像到他们每天坐在如来身边听经外,还会干些什么,想些什么呢?

        • 家园 电脑当然不是一成不变的,alphazero从零起步牛着那

          人家也不用有出,只要知识没过时可以一直留着

          啥时候人脑可以和电脑结合了,既保持了人脑的创造性,又有了电脑存储大、易复制、速度快

          这就厉害了,不过这时候是不是只有个别人脑有继续的必要了?刚开始也许需要保证多样性免得出情况被全灭,等有了brainzero,估计也都不需要了

          一个超脑可以搞定一切,人类也许只能作为它的保护项目而存活

          好残酷呀~~~

          历史的车轮本就如此

          • 家园 倒忘了阿法狗,

            不过没有出有个问题,到非常多了以后可能需要的内存回太多,速度也会受影响。

            • 家园 关于阿法狗想起点时政问题. 借您的贴发言:)

              关于阿法狗的实力,最有效最可信的检验,阿法狗同设计开发者比赛。设计开发者里肯定有相当专业水平的围棋手,他们了解阿法狗的弱点和死穴,如果阿法狗还能胜多负少,那就厉害,否则价值大打折扣,阿法狗的弱点和死穴,也许在围棋技术来说很低档次,专业棋手了解的话,闭着眼能随便调戏。这貌似是最必须介绍的情况,我当时没有专门找,没有见到过这方面的报道消息,关于阿法狗同设计开发者对砍的介绍,没见到过,而是一味用外界的专业棋手来炒作,而中国方面也全民响应助力这种炒作,完全是为美国软实力灯塔保驾护航,我当时聊朋友圈表达很反对这种风气。

              另外,当时吹很多阿法狗经常下出异于人类的棋招的现象,其中一个可能,那一步子不重要,或者算不过来,电脑随机决定。我有过体会,曾经瞎玩写过一个简单黑白子游戏(奥赛罗),不带学习的,只用简单公式,不用公式的地方,由电脑随机决定,电脑确实会下出很过瘾很欢乐的子,用到公式时再把关就行。

              总之本人反对一切盲目自矮的现象。

              奥赛罗 (一种黑白棋游戏)

              通宝推:桥上,
    • 家园 这个基本上说的是自主学习的涵义

      包括外界给予的goal下的自主学习,以及自己主动设立goal的两种。并有能力把goal拆分开订立计划,执行程序,这就是很不得了的一步了,也是AI的不可逾越的一个鸿沟。

      人来源自生物,生物根据进化论的理论从生命一开始就有goal,即生存,所有的智能也都围绕这一个本质目标,区别就是复杂性与效率了。智商带来的不过是深度与广度,虽然结果天地之别,但是生命从没有跳出这个千万年进化来的这个goal。

      AI的goal是什么么?如果是人给予的,那么AI就是人的工具,这样的goal来自于人,也一定能够是为人的生存这个基本goal服务的一个细分之下的部分,这样的话,从逻辑上AI很难对人类造成威胁,对部分人类可能会,但是人类内部本来就存在人之间的威胁,一部分人掌握的工具对另一部分人造成威胁这不是什么新闻。但是这样的AI不可能取代整体人类而不造成其无所依存,最极致的话这样的工具就是核弹,可以毁灭人类,但是自身不可能会生存下去。

      另一种当然是人类造出的AI具备自我制定goal的能力,这样推理下去容易得出可能产生与人类争夺资源的goal,或者某种人类目前还不能理解的goal,那么自然可能出现AI最终取代人类的问题。但是一这样的能力现在超出人类的思维能力,比如人对自己从何而来向何而去都弄不明白,发明了这么多宗教哲学,大部分人大部分时间一生中做的仍然是为着生存这个与单细胞生物同样的goal,有什么理由认为人发明的AI可能具备更复杂高深不能为人类所理解的goal呢?

      二,这样的goal是不是AI进一步发展的关键障碍。这个问题同样可以回过头来观察人类。比如这个自主意识的研究发现大多数人大多数时间不过是在做着行尸走肉一般的决定,只不过人类的大脑骗了我们似乎我们非常睿智的做出了合理的推理的结果。就算看大多数人类目前在做的工作,不论是达到经济决策,股市投资,战争政治,小到网购,房屋买卖,甚至两性相吸,这个世界上有几个人是真正的在制定goal,而其他大多数人不过是自觉或不自觉的在履行自己那一部分。图钉社会也好,农民起义也好,有多少是有自主goal的,比如那个李自成本来是邮差,洪秀全本来做老师等传说。人真正在做的真的是创造历史么。为什么人都无法摆脱对权利,金钱的热衷,为什么从来没有够?

      这样的人类的goal,虽然不比单细胞高级多少,但是在巨大智商释放下创造了我们今天看到的这个人类主宰的地球。有什么道理认为AI一定需要高深复杂的goal,甚至需要超越人类的自身的goal呢。换一个角度看的话,人类的发展也揭示了一个道理,即智商与goal没有什么本质上的依存关系。就像人类这样无论巨大的智商为自己开发出多么复杂的超级goal,以及配套的系统,哲学,理论,都没有超越过为这个单细胞生存goal服务的宿命。道理也很简单,因为否则的话人类的存在本身一旦面临威胁,所有的这些人类发明的东西马上就得绕道而行。

      这其实是一个good news。说明AI同样可能遵循同样的制约,不论其智能超越人类多少倍,只要AI的最原始goal是服务于人类,或者某一部分人类的,其发明出再复杂高深,人类看不懂的goal与方法,也不需要担心,所以人类对AI没有什么可担心的。但寄希望于AI传承人类思想,这个还很不现实,至少看不出AI有什么以人类思想为基础的必要。只要是人的工具,AI出现与人不一样的对世界的理解不是不可以与不可能。

      另外智能也不依赖于感情或者欲望这些生物为了在有限的智商基础上生存而进化出来的“快速通道”,比如恐惧,惊慌,兴奋,爱恋等,许多生物都有,AI暂时没有这个需求,也许以后为了与人打交道有这个需要。

      李开复最近在纽时说的那个倒是比较接近,真正担心AI的是今天不掌握资源的那部分人。如果说核弹带来的是政权之间的绝对控制权的话,那么AI带来的是人之间绝对的控制权。以目前AI水平判断,在可见未来AI实际上依存于数据权上,因此这里所指的资源也主要是指数据资源,当然首推国家机器,然后是行业寡头。以美国最近两代总统选举来看,西方民主选举都可能破产于AI之下,因此AI的发展影响最大的很可能是社会结构本身,而不是世界格局。

      通宝推:海峰,
    • 家园 自主,和欲望感情搅在一起觉得有些不相关

      我觉得自主或许分这么几个阶段:

      1 给定外部条件,确认信息全面准确,给定规则,根据规则自己决定怎么干。这个alphago已经干得很好了

      2 给定外部条件,给定规则,但不能确认信息全面准确。计算机需要根据不完备的信息决策到底怎么干

      3 给定目标,计算机自主制定规则,自主根据所获取信息决定咋干。这时候计算机就已经能威胁人类了,如果没有阿西莫夫的三定律这样的最初约束

      4 计算机自主确定目标,自主确定规则,自主探索发现新的原理。这就和人类没有区别了

      通宝推:桥上,
      • 家园 我想可以有这么两条辩护,

        第一,这不是多余的实体,这是主要的实体,因为我们本来就在讨论自主的电脑——机器人,如果是那种只能作为工具,尽管是更好用的工具,来使用的机器人,当然斩情灭性是必须的。

        第二,我所说的欲望可以分成两类,一类是类似于食色性也之类的,是要求,另一类是促进性的,这都并不复杂,问题是从实验的角度,应该正是有这两类推动力起作用,才使得简单的变成了复杂的,使得人类的思想产生出来,也才产生出各种复杂的感情,所以有实验的必要,当然没有很实际的直接的意义,但是我们不正该开始接触这种更理论的东西了吗?

        • 家园 你的第一条我感觉是在循环论证

          因为我们在讨论它,所以它是不能被删掉的,不是多余的

          如果是那种只能作为工具,尽管是更好用的工具,来使用的机器人,当然斩情灭性是必须的

          我们在小说和历史上,应该都看到有这种人:毫无人情人性,杀人如麻,嗜杀成性

          他们不是工具,他们是有自我意识的人

          既然人可以斩情灭性,然后仍然有自主意识,为啥计算机不行呢?他们当然应该更可以

          给计算机一个终极目标:把人类文明作为MEME永远流传下去,计算机自主根据此目标分解生成各种小目标.....

          既不会因为目标完成就无所事事,也不需要啥感情人性掺乎,多好呀......

          • 家园 花!

            不是这样,按您的说法,“给计算机一个终极目标:把人类文明作为MEME永远流传下去……”,那显然不是自主的电脑——机器人,而是人类的工具,况且这也是给他输入了某种按下面河友讲的Goal。我提出的则是在什么条件下,电脑——机器人不会是人类的工具,而您所说的历史上那些成为工具的人,正是一个可以探究的地方,就是在即使有了自身欲望的条件下,为什么可以通过多层的“计算”,变成了那样。

            您说的那种很好的机器人,当然很好,但我想探究的是在简单的欲望以及各种激素之类的作用下,复杂的各种感情是如何产生出来的,包括您说的那种极端状况,以及各种其他极端。

            另外,如何判断对错,本身也是需要有自身的原有的判断方式的,即使是您说的那种,但我想要的并不是您说的那种。也许是不那么简单,但我感觉还是有意义的。

分页树展主题 · 全看 下页


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河