AI的主体性之争
创始人
2026-02-25 17:19:37

电影《银翼杀手》剧照

人工智能会成为能动主体吗?

——从语言哲学的视角看(节选)

文/李国山

人工智能体是怎样的存在者

关于人工智能体的哲学思考,首先要弄明白的是:它/他(她)到底是怎样的存在者?由于目前还难以确定其身份,我们暂且称其为“TA”。在《计算机器与智能》一文中,图灵在应对各种质疑时勾画出了智能机器的理想形象:“这些论点是这样的:‘就算你真的能够让一台机器完成你提到的所有那些事情,但是你决不可能让一台机器做到X。’这里的X的特征很多,下面只是其中的一部分:要仁慈、机智、漂亮、友好,有首创精神,有幽默感,能辨别是非,会犯错误,会坠入情网,爱吃草莓冰激凌,能让别人爱上自己,会从经验中学习,用词得当,能成为自己思想的主人,像人一样行为多变,做出某件全新的事情。”倘能如此,便可乱真了。可以看出,对这种强人工智能目标,图灵还拿不定主意。或者说,他已经意识到人们会有这样那样的疑问。事实是,整整75年过去了,我们仍未能见到足可与我们平起平坐的机器人。

关于人工智能体到底是怎样的存在者的问题,我们首先得承认,TA已然是真实的客观存在了。无论是其硬件还是其软件,都是TA这样一个存在整体的构成部分,而且是彼此密切关联在一起的。剩下来最关键的问题就是:能不能说,TA像人一样具有意识和自我意识,而且能像人一样进行认知、思考和推理。抑或,TA只是普通的技术工具,而不是能动的存在者?这乃是关于人工智能迄今所提出的最重要又最难解的问题。争论从未停止,而且有愈演愈烈之势。如果紧抓住这一问题不放,在哲学上就难以避免物理主义一元论与心身二元论无休止的论战。而人工智能专家们似乎总是想给出一个非此即彼的答案来。其实,我们不妨借鉴分析哲学家普遍采用的语义上升策略,不再纠结于人工智能体到底是否具备主体性,而只是反观我们究竟是怎么看待和谈论TA的存在的。

来看一下最近的一场争论吧。2023年,被称作“人工智能教父”的杰弗里·辛顿在接受媒体采访时毫不犹豫地说:人工智能体目前还没有意识,但它们迟早会有的。他认为,自我改进能力可能会触发意识觉醒,而先进的人工智能系统已具备自主学习和目标设定能力。此外,他还认为,随着大语言模型所用参数量的日益庞大,量变会引起质变,而机器意识会因此涌现出来。最近,加拿大研究机构矢量人工智能研究所(Vector Institute for Artificial Intelligence)公开了一段2024年2月辛顿所做演讲的视频。在这段视频中,他甚至明确提出,人工智能系统已经有了主观体验:“大多数人,包括在座的许多人,仍然相信这些系统和我们之间存在巨大的差异。我们是有意识的、有主观体验的,而这些东西只是运行在计算机上的程序,没有主观体验。我认为这种观点完全是错误的,这种误解源于对主观体验的本质的错误理解。……几乎每个人都认为,心智就像一个内在的剧场,我能够看到我自己内心剧场中的一切,但其他人却看不到。这是尝试理解语言的一种方式,但它是错误的,语言并不是这样运作的。实际上,当我们使用‘主观体验’这些词语时,我们并不是在描述某种内在的世界或剧场,而是在尝试通过讲述现实世界中的某些状态,来解释我们感知系统告诉我们的一些信息,这些信息如果成立,就能解释我们的感知系统是如何正常工作的,而不是出了什么问题。”

而另一位著名人工智能专家杨立昆,则明确反对人工智能具有意识的观点,他认为现有系统只是复杂的信息处理器,缺乏主观体验的生物学基础。人工智能体必须通过同物理世界的交互作用获得感知能力和主观体验,而目前这些纯数据驱动的模型无法实现这样的目标。所以,他强烈批评辛顿的上述看法。

在这场最新的争论中,我们仿佛又听到了80多年前图灵和维特根斯坦激烈辩论的声音。不过,争论的内容和方式却发生了微妙变化。在指责人们在机器是否具有主观体验的问题上犯了严重错误时,辛顿所依据的显然是维特根斯坦的私人语言论证。我们知道,后期维特根斯坦主张采取语法考察的方式来消解哲学难题:“当哲学家使用一个语词——‘知’‘在’‘对象’‘我’‘句子’‘名称’——并试图抓住事情的本质时,我们必须不断问自己:这个语词在语言里——语言是语词的家——实际上是这么用的吗?我们把语词从形而上学的用法重新带回到日常用法。”我们注意到,维特根斯坦这里列举的六个超级哲学概念中,第一个是认识论的核心概念,接下来的三个是本体论概念,而最后两个则是语言哲学概念。他明确要求将这三大哲学领域中的基本概念都拉回到具体的语言游戏中加以考察,以便看清它们原本的意义,因为他主张“语词的意义即其用法”。而一旦这样做了,那些长期困扰我们的哲学难题便有望最终被消解。就本文的主题而言,人工智能所涉及的本体论和认识论问题实际均可化为语言哲学问题予以澄清和解决,这也正是笔者选取语言哲学视角的主要理由。

时至今日,雨后春笋般出现的各种大语言模型确实已经展现出很强的自然语言理解和应用能力,可以同人类进行深入而有效的交流了。那么,在这种情况下,是否就可以像辛顿那样断言这些人工智能体具有了主观体验、学会了思考呢?或者,更进一步认定它们具备了完全的主体地位了呢?其实,后期维特根斯坦尽管认为我们可以而且只能在外在世界里实际进行的语言游戏中寻找心理语词的意义,但他这样说的时候,并不意味着他承认这些语词代表着实际存在的内心状态。所以说,从人工智能体成功完成了交流行为并不能推知:TA具有了意识、学会了思考和推理,甚至可以自主地做出决策,俨然一个活生生的主体了。

其实,这样的争论会一直持续下去。笔者认为,与其纠结于机器人到底能否具有意识和自我意识,能否获取主体地位,倒不如冷静下来仔细考察我们现实生活中是如何用像“存在”“思考”“意识”“能动主体”“主观体验”等这样一些词语去谈论人工智能的,这是我们可以从维特根斯坦那里吸取的教益。著名人工智能评论家拜伦·瑞希写道:“有没有解决这场辩论的出路呢?我认为是有的。当我们意识到这些专家之所以持不同意见,不是因为他们知道不同的东西,只是因为他们选择相信不同的东西时,事情就有了转机。”即是说,我们应该尊重各种不同的看法,只要它们不妨碍我们继续推进人工智能向前发展就行。当然,总有人爱刨根问底,我们只能劝告他们:不要深陷其中,不痴迷于一家之言。

人工智能体是真正的认知主体吗

首先,人工智能的兴起,对知识的定义问题提出了新挑战。现代认识论家倾向于将知识定义为“得到辩护的真信念”,认为知识至少包含信念、真理和辩护三个必要条件。其中,信念是认知主体的主观心理条件,由于人工智能体到底是否具有意识还处于激烈争论之中,倘若假定人工智能体也拥有知识的话,那么信念这个主观条件似乎就不再是必要的了。相反,如果仍坚持信念乃是知识的一个必要条件,那么,至少从目前的情况来看,尚不能确定人工智能体真正拥有知识。

总之,人工智能所拥有的知识虽以命题知识的形态被存储,但由于TA缺乏对这些知识内容的理解,所以所谓的知识库就和一般意义上存储物品的仓库没有本质区别。这就是说,人们在判定TA是否知道某种东西时,所依据的只是TA能否成功地做某件事情,如是否给出了令人满意的答案。这当然同我们说某人拥有知识完全不是一回事情。因此,人工智能体虽然拥有庞大的知识库,但TA并不能像真人那样理解任何一个知识判断。而且,TA对知识的存储和取用,最终都是由人通过事先设计好的程序来操控的。

其实,以上从认识论角度所做的这些探讨只是表明:在什么意义上,人们可以认定人工智能体已接近人类认知主体了,或者说,TA在哪些方面同人们具有了一定的相似性。如果脱离具体语境,人们便无法有意义地谈论人工智能体“是否拥有知识”“是否可以发现新知识”“是不是真正的认知主体”之类的问题。总之,围绕人工智能而生的这些认识论问题,事实上都可转化为语言哲学问题而予以澄清和化解。

上文节选自《2025年中国随笔精选》,作者李国山

2025中国年选系列 中国文学年度盛宴

购买

相关内容

热门资讯

“砸”了数十亿元,春节AI红包... 多年以后,当我们回望中国AI(人工智能)发展史,2026年的春节一定会被反复提起。 随着阿里、腾讯和...
牛刀凤凰博客 牛刀介绍牛刀,中央电视台财经评论员,财经专栏作家,是中国房地产最具影响力的独立评论家,中国地产营销实...
凤凰知音官网 基本介绍作为星空联盟成员之一,中国国际航空股份有限公司携手星盟成员航空公司,共同为旅客搭建起覆盖全球...
AI鬼故事“突袭”美股! 作者 | 深水财经社 韩峻 一个虚幻的故事带来了一场真实的金融风暴! 2月23日,道指单日狂泻821...
阿里开源三款中型千问3.5新模... 新京报贝壳财经讯(记者罗亦丹)2月25日,继除夕开源Qwen3.5-397B-A17B之后,阿里继续...