西西河

主题:【原创】从凝聚态物理开始乱侃. (一)背景知识 -- 衲子

共:💬37 🌺19 新:
全看分页树展 · 主题 跟帖
家园 【文摘. 附衲评】 人工智能大辩论

衲注: 此文很好地综述了关于人工智能和意识领域的几种主要观点. 值得一读. 末附小僧刍议.

--------------------------------------

人工智能大辩论

李逆熵

数年前,我在一本名为《超人的孤寂》的科幻专论之中,谈到“人工智能”(artificial intelligence,简称AI)的研究如何从被嘲笑转为被重视。我当时是这样写的“科幻小说中的智能电脑和机械人被电脑界嘲笑了数十年,今天终于得以吐气扬眉,好教世人知道谁是谁非。”然而,我接着写道:“有关这方面的争论在很长的一段时间里仍不会停息……” 我当时不知道的是,就在我撰写上述文字的时候(一九八六年),一场新的有关人工智能的激烈争论,已经在西方学术界展开了。

这是一场新的争论,因为无论自有科幻小说(十九世纪末)还是有电脑(一九四六年)以来,有关机器思维的争论──也就是“拥AI”和“反AI”的争论──实在没有停息过。例如在六、七十年代,便有英国哲学家鲁卡斯(J. R. Lucas)基于数理逻辑(特别是哥得尔 Kurt Goedel 的不完备定理),以及美国哲学家德雷弗斯(Hubert Dreyfus)基于现象学的观点对人工智能作出种种非难。令这一争论在八十年代重新热烈起来的,是一篇发表于一九八0年的文章《心灵、大脑与程序》(”Minds, Brains, and Programs”)。在这篇文章里,美国加州柏克莱大学的哲学家西尔(John R. Searle)首次提出了他那著名的“中文字房实验”(Chinese room experiment)有趣的一点是,这个实验虽然从来没有付诸实践,但它所引起的争论,却比不少真正进行过的实验还要多。

“中文字房实验”之争

究竟甚么是“中文字房实验”呢?原来这是一个无须付诸实践,而只需在理念上进行的实验,就好像爱因斯坦在创立相对论时所提出的种种“拟想实验”一样。在这个实验,中,西尔设想一间装满了中文字卡的房间,房中还有一本由英文写成的手册和一个只懂英文而完全不懂中文的人。现在假设房外有人不断以字卡的形式把一些中文写成的问题透过一道窄缝送入房,中,房中的人则按照输入的字卡和手册指示,把一些对应的字卡顺序从窄缝掷回房外。重要的是,手册中的指示从来没有解释任何一个中文字的意义,指示的形式永远只是“如果收到某某编号的字卡,则交回某某编号的字卡”或是“若收到某一组字卡,则交回另一组字卡”等。

假设房外输入的问题是一些有关唐诗的赏析或儒家哲学的讨论,而由房中输出的,则是相应这些问题的精辟答案,那么房外的人必会认为房内的人不单通晓中文,而且对中国文化有深厚认识。可是房内的人不要说中国文化,就是连一个中文字也不认识!

西尔要指出的是,中文字房有如电脑,房中的手册则是电脑程序。我们今天自然无法想像可以写出一套这样复杂的程序,正如我们无法想像可以有一本这么神奇的手册以至令房中的人不致露出马脚。但西尔的论点是,即使我们有一天终于能够写出这样一套电脑程序,那是否表示电自已经真正懂得思维呢?当然不是!正如中文字房里的人始终不懂中文,电脑也只是按照程序工作,而没有任可真正的理解。也就是说,电脑永远只会有语法(syntax)而没有语义(semantics)。西尔更进一步强调。就是更多更精细的语法,也无法产生半丁点儿语义,而这正是机器和人类的分别所在。

一九八0年的这篇论文,最先发表于专业学术期刊,因此未有引起广泛注意。不久,西尔应剑桥大学邀请主讲著名的“雷夫讲座”(Reith Lectures),其中一讲正以中文字房实验为题。演讲其后结集成书,名为《心灵、大脑与科学》(Minds, Brains, and Science)。透过这本小书,他的论点才开始引起注意。

在八十年代后期,西尔的非难成为了AI争论的焦点,这与电脑发展的历史也许不无关系。日本宣布进行“第五代”电脑计画至今已将近十年,但真正智能型电脑的来临似乎仍未有期,而机械人则仍只是工厂中高度专门化的机器,所谓机械佣人或机械保姆仍只存在于科幻电影之中。事实证明,我们最初对民发展的期望太乐观了。人类对外部世界的认知能力和对事物的学习能力,远比我们最初想像的复杂。在这样一种气候下,“反AI”的论调重新抬头,有关的争论也再次激烈起来。

当然,早在一九八一年,对中文字房理论的反驳已经出现了。“拥AI”的主将霍夫斯塔(Douglas R. Hofstadter)继震撼学术界的奇书《哥德尔、埃舍尔、巴哈:一条永恒的金带》(Goedel, Escher, Bach: An Eternal Golden Braid)之后,与哲学家邓纳(Daniel C. Dennett)合作,出版了可作为前书续篇的选集《心灵的我》(The mind’s I),集中收录了西尔首篇中文字房文章,也刊登了霍氏的反驳文章。霍氏和其他“拥AI”学者对西尔的反驳,大致可称为“系统观”或“层次观”的理论。他们主要的论点是:所谓语法和语义的划分,只是一个层次的问题。在一个较低的操作层次来看,我们可能的确只是看到语法;但从包括整个“字房系统”的高层次来看,我们必然无可避免地要涉及语义。

到了九十年代,著名的通俗科学杂志《科学的美国人》以卷首位置同时刊登了两篇针锋相对的文章,即西尔的《大脑思维是电脑程序吗?》(”Is the Brain’s Mind a Computer Program? ”〉和“拥AI”的丘卓伦夫妇(Paul and Patricia Churchland)的《机器能思想吗?》(”Could a Machine Think?”)。这两篇文章大体上仍集中于上述“语法”“语义”之争,它们可以说是对“西尔论题”争论的总结。

自我意识和“图林试验”

在提出“中文字房实验”时,西尔的文章还有一个中心思想:无论我们把电脑程序写得如何复杂,它也无法出现人脑(即真正的心灵)所拥有的一项特质──意向性(intentionality)。他在文章的结尾写道:“无论大脑如何产生意向性,这种过程必不等同于一项电脑程序。因为单靠电脑程序本身,绝不足以产生意向性。”

西尔这儿所用的意向性一词,显然是整场AI争论的核心。不过我们常用的字眼,则是“自我意识”(self-consciousness)和“自由意志”(free will)。归根结底,有关注的最大争论是:我们终有一天可以造出一副拥有自我意识和自由意志的机器吗?

在这里要澄清的一点是,AI研究有所谓“弱AI命题”和“强AI命题”之分。前者追求的,固定以机器来模拟人类部分“智能”活动,包括数学演算、逻辑推理、下棋、自动导航、甚至包括医学诊断、经济分析以及与人作模拟式的简短交谈等等。今天最先进的工业机械人或“专家系统”,都不过是弱AI范畴的产物。这些产物对科技和经济发展的推动固然极其重要,但并非我们一直谈及的“AI争论”的对象。有关注的重大争论,针对的是“强AI命题”。这一命题认为,人类终有一天能够造出一副在认知和思维能力方面皆与人完全无异(如果不是更优胜)的机器。

一九五0年英国数学家图林(Alan M. Turing)发表了一篇名为《计算机器与智能》(”Computing Machinery and Intelligence”)的经典文章,揭开了有关强AI命题争论的序幕。虽然电脑在当时只出现了数年,但科学家和哲学家对“电脑能否思维?”这一问题己争论不休。图林有感在进行这项争辩的时候,大家对思维的定义往往各不相同,于是执笔写了这篇文章,提出了,著名的“图林试验”(Turing test),作为判定机器是否拥有思维能力的标准。

甚么是“图林试验”?与“中文字房实验”一样,这也是一个“拟想实验”。假设房间里有一个人和一台电脑,房外的人可以通过打字机或癸幕显示分别与房中两者交谈。图林的论点是,如果我们无论透过如何刁钻的问题也无法识别房中何者是人何者是电脑,那末便不得不承认,房中的电脑其有与人类一样的思维能力。也就是说,它“懂”得思维。这便有如我们和别人相处时,总是通过不断的交流和观察,来判定对方是否拥有思维能力一样。

图林试验为“思维”确立了一个运作性的定义。自此,“强AI”的拥护者有了一个明确的目标,那便是要制造出一副能够通过“图林试验”的机器。显然,西尔的“中文字房实验”其实是对三十年前这篇经典之作的抗议。西氏认为,无论一副机器外表看来如何聪明,它仍只是一副机器(或只是一项程序)而不可能拥有真正的理解,更遑论真正的思想、感情和意志。简言之,西尔强迫“强AI命题”的拥护者面对这个问题:姑勿论某副机器能否真的通过“图林试验”,你们是否真的认为机器能够拥有思想、感情,亦即拥有自我意识呢?

大部分的“强AI”拥护者对上述问题的答案其实是肯定的(否则他们也不会成为“强AI拥护者),只是他们一向不愿意宣扬这观点。为甚么呢?因为这牵涉到一个形而上学的问题,很容易给人扣上“不科学”的帽子。因为“自我意识”这回事按其本质是永远无法确立的。我固然知道我自己存在,亦即我有自我意识。但假如一副电脑向我们宣称:“我知道我自己存在!”我们有甚么办法去判定这一说话为真,而并非一些极其巧妙的程序所产生的结果呢?

诚然,一个个体是否拥有“自觉的心”(a self-conscious mind)可能是永远无法确知的事情,但这正是整个问题的关键所在。如果回避了这个问题,则所有关于AI的争论就失去了意义。事实上,既然我们承认其他人有自觉心灵(唯我论者除外),那么自然也不应惧怕谈论机器是否可以有自觉心灵。毕竟,这才是我们心底里最关注的一点。

皇帝的新心灵

像时间起源一样,自我意识可说是宇宙间一个深不可测的谜。千百年来,不少哲人智者都为解开这个谜而费尽思量。在哲学探求中,这便是著名的“心、物问题”以及“自由意志与决定论”这两大课题,同时亦牵涉到本体论中唯物与唯心的古老争论。究竟现代科学的进步,对上述这些问题带来了甚么新的启示呢?这些启示对“强AI”的追求又是好消息抑或坏消息呢?这些都是彭罗斯(Roger Penrose)在他的新作《皇帝的新心灵》(The Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physics)中企图回答的问题。现任牛津大学Rouse Ball数学讲座教授的彭罗斯,是当代著名的数学家兼物理学家。七十年代,在研究黑洞时空结构的问题上,他曾经提出著名的“彭罗斯图”(Penrose diagrams)这一分析工具。一九八八年,由于他在科学研究上的贡献,曾与著名的物理学家霍金(Stephen Hawking)共同获得吴尔夫奖(Wolf Prize)。

厚达四百五十页的《皇帝的新心灵》是彭氏第一本科普著作。在书的前半部,他花了大量篇幅探讨这样一个问题:对真理(即使只局限于逻辑和数学上)的追寻,固定否可以用程式化步骤(algorithmic procedures)体现?引伸下来,也就是问:人的思维是否可以还原为不同的程式(algorithms),而最终归结为电脑程序的运作呢?

与哲学家西尔一样,数学家彭罗斯对上述问题的答案至终也是否定的。但较诸“中文字房实验”的雄辩式非难,他对问题的分析深刻和全面得多了,其间涉及图林机的休止问题、曼德布洛集(Mandelbrot set)与非递归(non-recursive)数学、希尔伯特的公理化纲领和哥德尔的不完备定理、可计算性和“复杂理论”的概念……其中最重要的,就是是否所有数学问题都可以“程式化”,即由一定和有限程序来决定。以著名的曼德布洛集和其他古典问题(例如二次不定方程 Diophantine equation 的整数解)为例,他说明这是不可能的。

思维和意识既无法还原为程式的运作,那是否表示它们超乎了科学研究的范畴呢?彭氏的答案既是肯定也是否定的:之所以肯定,是他认为整个现代科学架构中欠缺了极关键的一环,以至我们无法了解自我意识的本质;之所以否定,是他认为这一“缺环”并非甚么神秘不可知的事物,而最终可以被科学探究。

彭氏进一步大胆假设,这“缺环”可能与现代物理学中的两大困惑有密切关系,这便是量子力学中有关“波函数塌缩”(collapse of the wave function)这一核心观念所导致的种种有悖常识的后果,以及重力场还未能完全量子化而与自然界的其他基本作用力统一起来这一问题。

花了百分之八十篇幅探讨上述问题后,彭氏提出了“一颗重力子判据”这项大胆假说。按照这判据,只要物质和能量分布所导致的时空曲率达到一颗重力子的水平,量子力学中的线性叠加原理便会失效,而在其处的波函数便会发生“塌缩”,“归约”成“本征态”(eigenstate)。根据他和 A. Ashtekar 的粗略估计,倘若这一判据成立的话,质量在 10-7 克左右的粒子波函数都会“塌缩”,也就是说粒子的运动规律会接近经典理论。

从这“一颗重力子判据”出发,彭氏希望可以通过广义相对论影响和改造量子力学,特别是解决波函数塌缩所引致的困境,从而创造出一套涵盖量子力学和广义相对论的崭新物理学。这套新的物理学在目前自然仍是未知的领域,是一个梦想。但他认为,也许这正是打开自我意识之谜的钥匙,也是判别人类思维与(无论如何复杂的)计算程式的分野的关键。

这的确是十分新鲜和富散发性的一个观点。它倘若成立,对强AI的追寻究竟是好消息还是坏消息呢?

透过了一个寓言式的模子和后记,彭罗斯清楚地表明,他这本书的结论是对强AI命题的否定。由于目前的人工智能研究之中,还未曾包括他所提出的“缺环”,因此研究的纲领,便好像“穿”在皇帝身上的“新衣”,是一种自欺欺人和永远无法实现的梦想。这正是书名《皇帝的新心灵》的含义。

人工智能和进化

从本文开始,大家也许已经看出,笔者其实是个强AI的拥护者。多年来,笔者看过不少反AI的论调,却始终未为所动。然而,彭氏这本著作和其他的论调不一样,它的立论是有大量数学和物理佐证的。但这是否表示我放弃原来的立场,接受“人工智能”只能是空中楼阁这一结论呢?

事实大大不然。因为彭罗斯所否定的强命题,只局限于“程式的执行可产生意识”这一特定形式,而笔者所信奉的,却是“人类终有一天可制造出一副拥有自我意识的机器”。至于这一目标如何能达到,当然有待不断深化的科学研究。例如近年兴起的连结主义(connectionism),便将研究重点,从电脑程序设计,转移到神经网络结构(neural nets)和自我学习机制的模拟方面了。从这个角度看,彭氏的观点对人工智能的追求其实是好消息而不是坏消息。因为只要我们找到他所提出的“缺环”,便可以将“意识”的研究放到一个坚实的科学基础之上。这对创造“机器意识”来说,当然是奠基性的一大步。

[衲评: 彭罗斯在其《皇帝的新心灵》的续篇《Shadows of the Mind》中已经指出, 无论多复杂的 neural nets, 或包含随机性的进化算法, 理论上都能在图灵机上实现, 因而脱不了他根据哥德尔定理所作的论断, 即: 意识不可能从这些方法中突现.]

是甚么令我深信人工智能终能实现呢?是生物进化这一科学事实。我们也许能颇为肯定地认为,病毒和细菌并不具有自我意识。可是青蛙呢?麻雀呢?狮子、猩猩或海豚呢?三个月大的婴儿或严重弱智的人又怎么样?事实上,无论是“我”如今具有的意识,或上述不同程度的“意识”,都同样是生物进化的产物。

[衲评: "...意识...都同样是生物进化的产物。" 不一定! 这仅仅是一种假说, 千万别不自觉地把它作为当然的事实.]

我们今天高度发达的意识并不是自古便存在的。

[衲评: 非也! 应该说, 我们今天高度发达的科学技术并不是自古便存在的 (不是一直不断地存在, 而是发达与蒙昧相交替). 但至于"意识" 嘛, 有观点认为是一直存在的.]

南非猿人、能人、直立人以及尼人等,都应该拥有不同程度的自我意识。

[衲评: 是的, 连鸟兽虫鱼都有自我意识.]

也就是说,意识只是物质组织复杂到某一程度后所产生的现象。

[衲评: 这个推论不可靠.]

显然,这种现象还会随着生物继续演化而不断产生新的内涵和特性。 生物进化已经有数十亿年历史,人工智能的发展则只有数十年,难道这一简单的事实还不够雄辩吗?

[衲评: 有些原理上的,根本性的限制是不能指望靠其发展的时间来突破的, 就像永动机一样, 能说此项研究只进行了几个世纪, 现在不能做 并不意味将来不能做? 只要热力学第二定律正确, 永动机就是不可能! 类似地, 只要哥德尔定理正确, 强AI就不可能. 当然, 后一句话是带限制条件的, 特指: 靠机器演算(包含了"自我学习","基因算法"诸如此类的算法)来实现AI. 若没这个限制, 当然就可能实现等同于人类的智能, 怎么做? 很简单(当然某些条件下也不简单): 找个异性相结合, 生个孩子, 再施以十几年的教化, 大功即可告成. 但这其中牵涉的过程(物理,化学,生物, 及其它)是不能用图灵机仿真的, 所以不能算在强AI的手段中.

有人可能会反对 (特别是生物学家)说, 不对, 这其中所有的过程都必定是唯物的(即: 只有"物"的), 如果有个足够大的计算机可以模拟其中所有的原子分子核酸蛋白, 就必然可以仿真其物理化学生物过程, 也就是仿真了整个过程. 那我们考虑一个理想实验, 将一对有生殖力的男女限制在一个与外界完全隔绝的孤立系统中, 预先提供足够的能量源, 食物, 医药, 书本, 等等. 过十五年(或更早)就制造出一个新的智能. 如果这台大的计算机能模拟整个过程, 那就是能制造有人类智能的子程序了. 强AI不就实现了? 若这个小孩有数学天才, 可以独立地发现哥德尔定理, 并能构建该系统的哥德尔命题, 知道其真与不真, 这,这,这, 这个大大的图灵机就与哥德尔定理有矛盾了! 如果读者说, 你对生物的生长环境考虑得太简单了, 怎么能保证预先提供足够的各种条件? 又有谁愿意被关在与世隔绝的环境中? 那好, 我不把他们关在监狱里, 把他们关在银河系里总可以吧? 读者问, 银河系里又不是只有这一对男女. 我说, 上面的仿真实验并不限制一对couple啊, the more the merrier. 读者: 晕, 你这个花和尚! 我: 那是你自己想歪了. ]


本帖一共被 1 帖 引用 (帖内工具实现)
全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河