何怀宏&宋冰对话:当人工智能遇见中西哲学

日期
2020-06-12

地点:

已完结

何怀宏&宋冰对话:当人工智能遇见中西哲学


人类的历史长达几百万年,但文明的历史其实只有一万来年,存续时间是相当短暂的。

从诞生时的“不约而同”到轴心时代后的“有约而异”,如今我们的精神文明是否超越了过去轴心时代的思想内核呢?

随着人工智能等技术的飞跃,机器越来越成为人类生活中必需的一部分,甚至成为我们身体的一部分,手机、电脑、搜索引擎……在某种程度上成为了我们的外在大脑,用算法为我们自动做出选择,收集和储存信息,而随着技术的继续发展,这种趋势可能会愈演愈烈,到了那时,我们又该如何定义“人” ?迄今为止对“人”的意志、“人”的精神的理解,是否会被颠覆?

新京报·文化客厅线上特别策划第41期,联合中信出版集团,邀请到北京大学哲学系教授何怀宏、博古睿研究院副院长宋冰,与大家一同探讨人工智能与人类文明的冲撞。



01

人工智能,让我们面对哲学危机


宋冰提到,人们对人工智能和机器人的集中关注,大致开始于2016年AlphaGo对弈李世石并获全胜的事件。这一事件相当于在全球点燃了三把大火,第一把是对人工智能的研发给予了强烈的刺激;第二把是海量的资本注入人工智能与机器人行业;第三把则是人们纷纷开始想象机器智能的未来,有的是向往,有的是恐惧,有的是担忧。

与此同时,各国政府、国际组织,包括一些大公司也开始呼吁,要对人工智能研发进行监管和控制。宋冰提到,现公开发表的与人工智能相关的伦理原则已有70余份,甚至可以用泛滥形容。在这些文件里头,除了一些有实操性指向的原则,比如透明性、可解释性、反歧视、隐私等,也提到了筑基这些规范性原则的基础价值观,像欧盟提到人权、民主、法治、个人权利;也有的国家像新加坡、日本、中国更关注国家利益和国际竞争力。

然而这些价值观的底层思维,主要是西方近代以来占主流地位的一些理念和思维框架,包括人类中心主义、人的主体性、人与自然的相互分离(甚至对立)、人的主观能动性等。也许有人会觉得,这些不是应该的吗?但宋冰则表示,我们应该以前沿科技对人类和人类社会提出挑战为契机,重新反思这些塑造人类已久、甚至到了“百姓日用而不知“的底层性思维。

随着人工智能和机器人的出现,大家开始思考到底什么是人的本质?什么是机器的本质?过去认为人占主导地位,只有人才有这样的智能,但很有可能将来的机器智能在理性、智能上会超过人,那人又是什么呢?人和机器的关系应该是怎样的?西方已有不少哲学家提出了这样的问题,回到了哲学思考的原点开始思考。例如写了《人类简史》的尤瓦尔,他就说,“我们现在不仅仅在经历技术上的危机,也在经历哲学的危机”。

而面对这一危机,中国哲学又该做些什么呢?宋冰觉得,在这个“第四次工业革命”的时代,中国前沿科技的发展,虽不能说完全齐头并进,但至少赶上了国际的主流发展。过往历史里,中国仅仅是国际规范的学习者、追随者,没有参加过制定新规则的思考和尝试,现今这个时代对中华文化来说是一个机会。宋冰认为,我们应该在这一次人类发展的关键点发出我们的声音,丰富全人类的思想资源,她觉得这也是中国哲学的历史责任和使命。

宋冰表示,回顾这两年参与的中国哲学家和人工智能科学家对于终极问题讨论,会发现他们存在着一些共通性。首先是非人类中心主义,像儒、道家思想,它们对人的思考其实是在“天地人三才”的结构中进行的,而非把人从自然中间抽离出来,与自然对立。这一点跟近代以来西方传入的对自然和人的理解是相当不同的。佛家就更没有人类中心主义的思想。

其次在方法论和思维方式方面,中国哲学家的思维方式一直是比较开放的,他们拥抱变化,对“变“并没有生存级别的恐惧,具有唯变所适、与时偕行的精神。

最后,宋冰提到,虽然讲的是人机关系和机器伦理,中国哲学家们通常认为最终这个根还是在我们人本身,需要我们求诸于己。在思考所谓的机器伦理之前,人类首先要反省自身的进化和发展的历史,并吸取教训。机器无非是我们意识的延伸。根不深,树则不正。


02

当机器也“爱”我们

我们应该感到甜美还是恐惧?


何怀宏认为,要讨论这个问题,首先要理解人究竟是什么,当我们谈论人性的时候是在谈论什么。

他认为,在探讨“是否应该”之前,要先考虑“是否可能”。何怀宏首先否认了这种可能,因为相差太大。一个基本的障碍在于,人是碳基生物,但是人工智能机器是硅基生物。当然何怀宏也承认这里面可能会有一些中间形态,比如说有一种可能是人会变得越来越接近机器,为了延长生命,人可能会不断植入硅基的器官,但是脑子或心灵还是人的,也保持着某些为人的记忆。但一个基本的判断是,如果未来真的实现了这些技术,人和机器之间总会有一条界线,也就是到某种程度之后,就不再定义为人,而变成机器了。

不过何怀宏认为,目前更重要的是机器朝人发展的速度比人向机器靠近的速度更快。摩尔定律说明智能机器不仅是加速发展、倍速发展,甚至可能是指数发展。那么这样的发展会带来什么?它会因此而变得具有人性吗?对此,何怀宏举了“爱”这种情感来说明。

一位麻省理工的教授曾将爱分为四种类型,第一种是基于身体的欲望之爱,就是Eros ;第二种是像爱上帝,爱某种超越的存在的超越之爱,或是对某种精神境界的追求和爱,像佛教里面的涅槃境界;第三种是优雅的爱,也就是骑士的爱。欧洲中世纪,风度翩翩的骑士为了贵妇人可以牺牲自己的生命;第四种是近代以来的浪漫的爱,何怀宏认为这在某种程度上也是一种升华了的欲爱。

那由这几种爱我们可以思考,人对人会产生一种爱情,人对动物,甚至对单纯的物件有时候也会发生很深的感情。有人会有恋物癖,还有人可能会爱上作为机器人的性伴侣。但这些情感都是单向的,是没有回应的。

这跟人和动物的感情是不一样的。如果看过电影《忠犬八公的故事》,或在生活中有过养宠物的经历,我们会发现人和动物之间是可以存在很深沉的互动的,这种感情是有回应的,动物也会爱我们,甚至有时是比我们还忠诚的爱。这个原因何在?就跟我们同是碳基生物有关。

但是机器不一样,假如机器真的感到了“爱”,它是会反过来爱我们,还是利用我们、利用这种从控制的角度看来肯定是弱点的爱呢?

其实当机器似乎也爱我们的时候,我们应该感到恐惧,而不是甜美。它们与动物不同,动物没有控制人类的技术能力,在能力上它无法超越人,但机器却有可能。

就像电影《机械姬》中,一个工程师去测试一个被制造成女性的机器人,他对它产生了同情,可能也有某种爱的意味。这个机械姬也隐隐约约感到人比它还多出一点什么,也许它也感到了人对它有一种感情、有一种爱。但是最后它还是利用了这种感情,把这个人永远困在地牢,自己走到人类的都市里去了。

我们无法用人类的道德去批评它的这种行为,说它欺骗感情之类的,因为这本来就跟机器完全不搭界。机器可能感受到一种感情,但是它自然而然就利用了这种感情。其身体的感受性注定了它与我们是不同的。

所以,有时候动物乃至凶猛的野兽,都比为我们服务、带来很多方便的智能机器人,离我们更近,离人类更近。尽管智能机器是我们制造的,但是人类确实难以把握一旦它有了自我意识,或者说有了某种自己的意识或者精神,它会怎样对待人类?在何怀宏看来,如果有一天机器产生了另外的意识世界,很可能是不同于人类的。

总之,何怀宏对智能机器是否要发展为超级智能机器,机器是否应该人性化是抱有很大疑虑的。他提到,如果我们对自己身体的不断置换器官,乃至置换大脑而最后获得一种新的性质的话,那将是一种“物性”还是“人性”?或者,如果说如果超级智能机器将有“心”的话,那将是一种“机心”还是“人心”?尤其我们听到过一种说法,机器不可能超过人,因为机器不会有人那样的爱。但这不是安慰。可能恰恰因为机器不会有人那样的爱,不会有人那样的同情,所以,反而更容易超过人。在我们与智能机器的控制力的竞争中,爱不是一个优势,倒可能是一个劣势。

何怀宏问道:“现在一些单一功能的机器人对我们百依百顺,这是不是就够好了?但百依百顺并不是爱。我们是否还希望它能力更为强大,变成通用化的超级智能机器?那时,你是不是还希望机器爱你,那会是一种什么样的爱?是像我们爱宠物一样的爱?”

对此,他回答说:“所有这些,不是说我肯定知道什么,而是肯定我不知道什么。我不知道如果智能机器获得一种‘意识’的话,那将是一种什么‘意识’?我不知道如果机器具有了一种统一的‘自我’或‘主体’意识的话,那会是一种什么样的‘自我’或‘主体’。我的担心和畏惧不是对我知道的东西的担心和畏惧,而是对我所不知道的东西的担心和畏惧。”


03

我们的生存矛盾

来自于自控能力与控物能力的不平衡


何怀宏表示,人有四个特征。第一,人是能够制造和运用工具的动物,也就是控物能力,人有很强大的认知能力、计算能力等。第二,人不仅有对外物的理性,比如技术理性、工具理性,也有对自己的理性,比如人文理性或某种平衡的理性。第 三个特征就是人有综合的自我意识,有主体意识,可以把上面的能力都统一到自身,形成人格。这三点主要是侧重于人禽之别,从人和动物的区别来定义、来说明的。

而第四个特征,过去不太谈到,但在智能机器出现的今天,尤其之后还有可能出现超级智能机器,这一点就要格外强调。这一特点不是人和动物的区别,而是人和动物共有的,就是人是碳基生物。

人有感觉、感性,有能够综合各种感觉的统一的知觉,有对某些原则,像是正义、公正的道德直觉,有上文提及的深厚的感情,像是爱,还有对超越自身和万物的某种存在的信仰。这些恰恰都建立在人的这种更基本的性质、生物学的事实基础上,即人是一个碳基生物。

而这一特性也给人类带来很多脆弱性,比如说人会受伤,适应不了极端的气候环境,比如人要不断摄取营养,不能离开空气、水、阳光,比如人的生命是有限的,会死亡。这些造成了人的有限性,但也正是从这有限性上生长起人类的文明。人会去追求,不仅是追求精神上的超越、无限,也追求能够克服人的各种有限性的东西,甚至爱也是因为对于人的某种脆弱性的热爱。

用这四个特征来比照人工智能,它在第一点上已经部分超越了人,任何一个人都没办法在一秒钟运算几亿次。而第二点、第三点,目前能看到的还是功能比较单一的机器人,哪怕是再复杂的电脑,也还没有形成一个自我的意识。如果未来智能机器形成一个独立的、综合性的自我和主体意识,这其实是很危险的,因为我们不知道它会形成一个什么样的自我。

这也就涉及对人类未来的忧虑,何怀宏将这忧虑总结为两大不平衡。一方面,人类的控物能力在近百年里得到非常高度的发展,但是我们的自控能力并没有相应地发展,这就形成一个很大的不平衡。而另一个不平衡是,随着人的智能、认知能力的发展,人的精神的其他方面并没有相应程度的飞跃,它们也形成一种巨大的不平衡。

何怀宏称,这归根结底或许是一种不平衡,即精神,尤其是道德和信仰能力的不足、不相称,构成了自控能力和控物能力的不平衡,而且这是一个持久且根本性的矛盾。

我们可以看到,人类的整个价值取向,在轴心时代产生几大文明后,差异性或者多样性还比较明显。但现在随着全球化,人类的价值观正取得一个最大程度的趋同。无论是西方还是东方,一些根本性的主导性的价值——更关心物质,更满足物欲——正在逐步趋同。

而这可能会继续造成、甚至加剧我们所说的控物能力和自控能力的不平衡,人的知识认知能力和其他精神能力的不平衡,这也是何怀宏最为深切的忧虑。

他认为目前不仅要考虑人类文明的繁荣富强之道,还要考虑人类的长久存续之道,而在这一方面,或许需要从轴心时代最早在精神上飞跃的前人那里吸取智慧,为了不让我们成为最后的人,我们也许要学会像最初的人那样思考。


文转载自 | 新京报·文化客厅

整理撰文 | 崔健豪
编辑 | 吕婉婷  排版 | Cassie
校对 | 危卓