摘 要:哲学一度被等同于语言哲学,进一步发展细分出行为哲学,语言哲学和行为哲学构成精神哲学,哲学的论证建立起了分析哲学。塞尔在此基础上逐渐建立起心智分析哲学体系,这一体系的形成得力于中文屋思维实验的逻辑分析与心智活动的推理。本文通过对中文屋论证的重点介绍,将心智分析哲学的发展过程进行梳理,客观地维护了当代哲学的争鸣与演进现状,力图使人们在自然语言处理和人工智能研究过程中保持科学的客观的态度和信心。
关键词:心智哲学 中文屋 分析哲学 语言哲学
中文屋(Chinese Room,the Chinese Room argument)[1]是塞尔(John Rogers Searle)于1980年提出的。中文屋思维实验中,屋外人所扮演的角色相当于程序员,屋里人相当于计算机,而手册则相当于计算机程序,正如屋里人不可能通过手册理解中文一样,计算机也不可能通过程序来获得理解力。
塞尔正是利用这一结论对图灵测试(Turing Test)[2]进行反驳。图灵测试和人工智能的结论都坚称计算机最终会具有人类同样的智能,能够理解人类,具有思维。下面拟从中文屋论证的心智哲学进行演进性分析。
一、心智分析的哲学基础
分析哲学主要进行意义分析,是建立在弗雷格(Gottlob Frege)、维特根斯坦(Ludwig Wittgenstein)、罗素(Bertrand Russell)、摩尔(Gordon E. Moore)和维也纳学派逻辑实证主义者的思想基础之上的。19世纪后期,弗雷格发明了现代符号逻辑学,并建立了严谨精深的语言哲学。当时,哲学研究的本质已经等同于将现代逻辑学与语言概念分析相结合的语言学。维特根斯坦和摩尔在语言分析中进一步发展了弗雷格的逻辑分析方法。这种传统哲学理论与现代逻辑分析的紧密结合便产生了分析哲学。
从20世纪50年代开始,一种新的分析哲学理论逐渐形成,主要有奎因(Willard Van Orman Quine)对分析与综合区分的否定,奥斯汀(John Langshaw Austin)和塞尔的言语行为理论与格赖斯(Paul Grice)的意义理论的结合。
(一)杜恒-奎因论题(Duhem–Quine thesis)
奎因(1953)【3】认为,科学话语是一个复杂的网络化整体,包括边缘层、内层和中心层。经验证明只是在边缘层对科学话语进行证明,这种经验证明可以产生各种可能的变化,而这些变化并不是完全由逻辑分析产生,相反地,逻辑分析在试图进行各种实用性或实践性的调整,以适应不断变化的经验特征。当今的大部分哲学家都或多或少接受了奎因对分析与综合区分的否定。对分析与综合区分的否定对分析哲学产生了深刻的影响。由于奎因的这种整体论思想受到法国科学哲学家杜恒(Pierre Duhem)的极大影响,因此被成为”杜恒-奎因论题“。
(二)言语行为理论(Speech Act Theory)和意义理论(Theory of Meaning)
奥斯汀的言语行为理论使得语言哲学成为了行为哲学的一个分支,而语言哲学和行为哲学又成为精神哲学的下位概念,这些概念的厘清构成分析哲学的理论基础。塞尔 (1975)【4】进一步把言语及其意图分为5种基本的“以言行事行为“(illocutionary speech acts),即断言式(assertives)、指令式(directives)、 献身式(commissives)、表达式(expressives)和宣言式(declaratives)。在奥斯汀和塞尔之后,言语行为理论研究者力图与格赖斯(Herbert Paul Grice)关于意义的理论结合起来。格赖斯(1957,1968)【5】指出,在讲话者发出言语的目的与这些言语的意义之间有一种密切的联系,意义是一种自我指称的意图,在会话中,人们会接受某些心照不宣的原则,格赖斯将其称之为“会话准则”(conversational maxims),即质量准则(maxim of quality)、数量准则(maxim of quantity)、关系准则(maxim of relation)和方式准则(maxim of manner)。
言语行为理论在计算机应用方面主要体现在人机对话的计算言语行为模式和自动分类及检索。维诺格瑞德和弗洛里斯(Terry Winograd & Fernando Flores,1987)将“言语行为”(Speech Acts)发展为“对话行为”(Conversation for Action)。他们认为,无论在人-人、人-机或机-机之间的交互行为都是一种“对话行为”,计算机处理证明计算机“对话行为”完全可以在一个虚拟世界中模拟各种现实社会行为,如医生与病人之间咨询问诊等。
塞尔为了进一步论证,特别将人工智能区分为强人工智能(Strong AI)和弱人工智能(Weak AI)。强人工智能认为,正确模仿实际上是一种心智;而弱人工智能认为,正确模仿是一种心智模式。模仿心智与具有心智是截然不同的。塞尔认为,人工智能系统能够用以解释心智,图灵测试足以建立心智状态,可是,人脑研究却与心智研究无关。塞尔认为强人工智能犯了二元论的错误。这种二元论认为,心智和身体由不同“物质”组成,“强人工智能只有当二元论假设成立时才有意义,这个二元论假设是:心智起作用时,大脑不起作用。”塞尔反对任何形式的二元论,他认为 “大脑产生心智”,“人的具体心智现象是由人的大脑的具体物理化学属性决定的”。塞尔的中文屋论证聚焦于“理解”上,认为“理解”就是哲学家称为“意向性”的心智状态。
二、中文屋深度论证
鉴于论争当中的不同论点,在中文屋论证的基础上,塞尔(1990)【6】进行了更为正式而深入的心智分析论证。受到争议的中文屋论证的唯一前提或结论称为A3,而这恰恰得以论证中文屋思维实验的可靠性。
塞尔首先提出三个公理:
A1)程序是正式的(具有句法)
一个程序运用句法操控符号,并不理会符号的语义。程序可以将这些符号放在适当位置、如何移动符号,但并不知道符号代表什么,也不懂符号的意义何在。对程序而言,符号仅仅是符号。
A2)心智具有思想内容(具有语义)
我们的思想代表一定事物,并且我们知道我们的思想代表的是什么,这些思想内容是有意义的。
A3)句法本身并非由语义构成,也不足以构成语义。
中文屋论证正式凭此证明:中文屋里的手册说明具有句法,因为有一个人在中文屋里移动那些符号,使符号符合中文句法。可是,这些符号并不被中文屋里的人或物所理解,因而这些符号并无语义。因此,具有句法并不足以生成语义。
塞尔认为这些论证可以直接推出一个结论:
C1)程序既非由心智构成,也不足
以构成心智。
勿容置疑,从上述三点可以推出:程序没有语义,只有句法,句法不足以构成语义。而每一次心智活动都有语义。因此,程序不是心智。
上述论证表明:人工智能永远不能通过编写操控符号的程序来制造具有心智的机器。不过,这个结论又带来另一个棘手的问题:人脑是否在运行程序?换言之,心智计算理论是否正确?针对这个问题,塞尔又提出一个公理来解释有关大脑和心智的现代基础科学上的一个共识:
A4)大脑产生心智。塞尔坚称,我们可以迅速地、毫不费力地得出如下结论:
C2)任何能够引起心智活动的其它系统必将产生与大脑所产生的至少相等的因果力(causal powers)。
大脑肯定具有产生心智的某种东西。这尚需科学来确定这种东西为何物。但是,这种东西一定存在,因为心智存在。塞尔把这种东西叫做”因果力“。因果力正是大脑用以产生心智的东西。如果有任何其它东西可以引起心智活动,那么这种东西一定具有”同等因果力“。“同等因果力”就是用以产生心智的任何其它东西。
由此,塞尔进一步得出如下结论:
C3)任何产生心智现象的人工制品,任何人造大脑,必将能够复制大脑的特定因果力。而只要通过运行一个正式程序,人造大脑就可能不执行对因果力的复制。
这个结论是从C1和C2得出的:既然没有任何程序产生心智活动,既然“同等因果力”产生心智,那么可以说,程序不具有“同等因果力”。
C4)人脑实际产生心智现象的方式不可能仅仅凭借计算机程序的运行。
既然程序不具有“同等因果力”,既然“同等因果力”产生心智,那么就可以说,大脑产生心智。从而得出: 大脑并非通过运用程序来产生心智活动。
当然,塞尔的“强人工智能”与未来学家的“强人工智能”不能混为一谈,如库兹韦尔(Ray Kurzweil)的理论。未来学家使用“强人工智能”来描述与人的智能相对的机器智能。库兹韦尔主要考虑机器所表现的智能的量,而塞尔的论证在量上没有作出专门限制,认为只要承认智能仅仅是一种刺激而不是心智本身就行了。另外,强人工智能在“背景常识”(Commonsense Knowledge Base)的量上也有两种看法:一者认为,电脑根本无法具备背景常识,代表人物是塞尔(Searle,1990,1992);一者坚称电脑是可以具备背景常识的,主要是电脑储存的背景常识的量仍然不够,或者是因为电脑的大量背景常识没有进行恰当的组织,代表人物是莱纳特(Douglas Lenat,1990)【7】。
参考文献:
1. Searle, John. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences 3: 417-457
2. Turing, Alan.M. (1950). Computing machinery and intelligence. Mind 59: 433-460
3. Quine, W. V. O. (1951). Two Dogmas of Empiricism. The Philosophical Review 60: 20–43
4. Searle, John. R. (1975). Indirect speech acts. In Syntax and Semantics 3: Speech Acts, ed. P. Cole & J. L. Morgan, pp. 59–82. New York: Academic Press
5. Grice, H. P. (1957). Meaning. The Philosophical Review 64: 377-388
Grice, H. P. (1968). Utterer's Meaning, Sentence-Meaning and Word-Meaning. Foundations of Language 4: 225-42
6. Searle, John. R. (1990). Is the Brain's Mind a Computer Program?. Scientific American 262: 26–31
7. Lenat, D and Guha, R. (1990). Building Large Knowledge-Based Systems: Representation and Inference in the Cyc Project. Mass.Addison-Wesley