观点

刘哲:中国机器人伦理标准?“去人类中心主义”视角

2020-01-13 14:52:11

【导语】刚刚过去的2019年末,《中国机器人伦理标准化前瞻(2019)》出版。继英国、美国和欧盟之后,中国的机器人伦理标准体系初见雏形,为人类应对全球性的机器人伦理风险提供了“中国方案”。这套哲学领衔设计的“中国优化共生设计方案”(COSDP)为世界这一领域探索了什么样新的视角?在可预期的未来,中国机器人伦理标准化工作将有怎样的推进?在2019年的最后一天,文汇报记者李念和刘梦慈博士专访了“国家机器人伦理标准化白皮书”项目工作组组长、北京大学哲学系副主任、北京大学博古睿研究中心联席主任刘哲,带着中国新型科技发展与全球人类未来的思考迎接2020年新的开始。

本文系“文汇讲堂”2020年首专访之第一篇,网络版转载自文汇网,由作者与被采访人授权推送,特此致谢!

| 01.全球54份机器人伦理文件中,唯一一份以哲学领衔的机器人伦理标准设计

《文汇报》:2017年5月我国首次机器人伦理标准研讨会在清华大学召开;同年7月,在“WRC2017世界机器人大会标准化专场”中机器人的伦理标准化成为重要议题。2018年由北京大学哲学系领衔着手《中国机器人伦理标准化前瞻(2019)》(以下称《前瞻》)的编著工作,这意味着哲学等人文学科不仅在理论上探讨人工智能等新兴科学技术,而且已经切实地、具体地影响其产业发展。作为“中国机器人伦理标准化前瞻委员会”工作组组长和北京大学哲学系副主任,在您看来哲学领衔这项跨学科研究有何意义?

刘哲:这是一个很有趣的问题。以哲学领衔这样的一个研究团队其实也不难理解。一方面,随着人工智能和机器人技术的发展,有相当多的伦理问题已不限于人类社会,更拓展到动物、环境等领域,这样的伦理考量所涉及到的基础概念、基础理论会碰到相当多的挑战,在此意义上,哲学的反思自然地走到了前台。

另一方面,这与中国的文化传统有关,在中国大家一想到伦理,往往首先把它同哲学联系在一起。尽管如此,我们的团队组成并不仅仅是哲学家,还包括人工智能、计算机、机器人领域的专家。在顾问委员会中,还有很多来自产业界、政府部门的成员,另外还有外籍专家。这确实是一个很独特的团队。据统计,到目前为止,包括《前瞻》在内全球涉及人工智能和机器人领域伦理方面的文件共约54份。有些是伦理的导则,有些是伦理的白皮书,有些是伦理的宣言,但我们这一份可能是唯一一个以哲学主导的伦理体系。与其他53份文件相比,这份伦理标准化工作在面对具体的问题和措施的同时,伦理反思更为系统化,由此也会探索一些其他文件不太可能会触及到的理论问题。我们对于共有的问题也提出了不一样的理论考量。

| 02. 跨学科不是两个学科凑在一起,而是通过开放思维看到新学科新问题

《文汇报》:就您了解,目前全国高校的哲学系这样的跨学科工作发展如何?经过这段时间的合作,您觉得此类工作对文科学者的知识储备有何要求?

刘哲:在我国高校开设的哲学专业中一直都有科学哲学,或者科技哲学、技术哲学。近年来技术哲学转向到对前沿科技的关注,这与人工智能包括智能机器人技术的快速发展,以及运用到生产生活过程当中带来的一些问题有很大关联。我看到有不同的学者在讨论,他们从不同的理论传统出发,有些关注的比《前瞻》还要更远一些。当然也不乏一些对此领域质疑的声音。

对于文科学者来说,跨学科研究不一定要求自己既有的知识背景有多么丰富,但是至少要求研究者有一颗非常开放的心灵,有理论探索的好奇心,而不是墨守成规。19世纪下半叶开始学科逐步分化并日益专业化,文理科好像是各干各的活,互不相干。因此,很多人认为跨学科意味着从理工科里拎出一个学科,从人文社科里拎出一个学科,两拨人凑在一起就行了。这种理解是不恰当的。跨学科的真正的含义在于不同学科的学者通过交谈、争论去看到一些新问题,这些问题可能不属于历史上的任何一个学科。真正的跨学科研究恰恰是为了我们未来的新兴学科的出现和发展提供最初的问题和探索。

| 03. 和全球关联大学、科研院所正展开合作,期待形成全球的理性讨论空间

《文汇报》:  欧美国家较早开始人文与新兴科技的跨学科建设。例如,2005年“欧洲机器人研究网络”就开始专门资助研究人员进行机器人伦理学研究;英国西英格兰大学开设包括人文学科在内的机器人学系,并于2016年研究发表首个机器人伦理标准。就您了解,目前我国此类的学科建设对形成中国哲学界和西方哲学界在这些领域内的话语权,是竞争多还是合作多?

刘哲:从跨学科的研究来说,例如人工智能、机器人,包括生物技术、材料、环境科学等在欧美的和日本较早启动,科技研发走的也非常靠前。从机构的设定来看,在我国,至少在北京大学跨学科研究领域现在与国际的著名的大学基本上是同步的。例如,2018年底北京大学哲学系相继成立了两个跨学科研究中心:北京大学哲学与人类未来研究中心以及北京大学博古睿研究中心。

目前在国际上这一领域,学者们更强调合作,这是由于跨学科所面临的新问题不是针对某一个国家、某一个地区或民族的,而是面向全人类的新型挑战。近年来,北京大学的这项工作已经跟全球很多相关领域的大学和科研院所合作,比如剑桥大学、耶鲁大学、牛津大学、东京大学等。我们期待能够形成一个新的理性的讨论空间,为决策者提供更加坚实的政策制定依据,在技术进一步发展并深入到人类生产生活领域时,我们可以有更好的理论视角去理解和应对风险、挑战。

| 04. 智能设备可看成“自主性的智能体”,研究自我意识到机器人伦理是拓展

《文汇报》:您之前从事当代德国哲学和法国现象学研究,2018年您担任第24届世界哲学大会中国组委会执行秘书长,与此同时,您开始主持“国家机器人伦理标准化白皮书项目”,是什么机缘使您对哲学与科技(特别是机器人的伦理)的跨学科研究产生兴趣?跨学科研究是一项挑战,在与国家机器人总体组合作开展这项工作中,您是否遇到过什么难题?

刘哲:我对于前沿科技一直都比较感兴趣,以往围绕着生物技术已经做了相当多的阅读准备。此外,我自己长期以来的主要研究论域是自我意识和主体性理论,智能设备事实上可以看做具有一定程度自主性(autonomy)的智能体(agent)。

因此,从事机器人伦理研究对我来说是一个拓展而不是另起炉灶。但毕竟一开始,这个领域对我和项目组的成员都是初步接触,所以我们需要大量阅读不同语言的国际文献,并且需要去深入了解其他国际和机构已经提出的人工智能和机器人伦理体系,在此基础上寻求国际共识。这是一项复杂的工作,加之2018年北京大学承办第24届世界哲学大会,我和项目组的许多成员都为大会组织工作忙得不可开交。但令我印象深刻和感动的是,大家在高速的工作中仍挤出时间投入到机器人伦理标准白皮书这一研究项目中,2018年的春节我们完全没有休息。大家都认为这项研究十分重要且有意义。

| 05. 目前只有中国以“去人类中心主义”的立场探索全球机器人伦理标准

《文汇报》:2019年11月底,《前瞻》由北京大学出版社出版,该书提供了一整套中国机器人的伦理标准——”中国优化共生设计方案“(COSDP)。与前些年BSI、IEEE以及欧盟委员会三大机构公布的机器人相关伦理文件相比较,我国的这套方案有哪些共通之处,又有哪些不同?我国的这套机器人伦理标准对于推动世界机器人业发展具有什么意义?

刘哲:在机器人伦理的研究中,中国与世界面对的问题是共同的,因此机器人伦理标准化体系是面对全人类的,这就需要加深各国不同伦理标准间的相互理解,寻求可理性辩护的国际共识。就我国的独特性来说,但凡有漫长的是文化传统的这样的国家和地区,不仅仅是中国,都会遭遇传统的伦理价值和现代世界的伦理价值之间的紧张关系。那么就需要一套具有相当整合力的伦理模型,去缓解或者说甚至整合传统伦理和现代伦理之间的紧张。

“中国优化共生设计方案”背后的一个非常重要的视角是“去人类中心主义”,而今天在欧美国家普遍是“人类中心主义”立场的人工智能研究。我们目前还没看见任何研究机构对自己所谓的“人类中心”路径含义进行准确澄清。然而,在伦理考量中,人类中心主义意味着伦理价值评判的对象范围仅限于人的权利和人的利益,而“去人类中心主义”需要考虑人与人和人与自然的整体性关系,以及当把人工智能制品包括智能机器人制品纳入到整体关系当中时它自己所应该承载的价值属性。在此意义上,“中国优化共生设计方案”提供了一个非常独特的视角,这个视角涉及如何面对我们今天以及未来可以预见的10-15年人工智能和机器人领域的技术发展可能带来的挑战。

| 06. 机器人伦理标准如何实施是个未知数,伦理规范还待继续补充

《文汇报》:

据悉,中国国家机器人标准化总体组2019年年会已在该年12月底召开,这次会议中,在推动机器人伦理标准体系的完善和实施方面接下来国家机器人标准化总体组有什么计划?

刘哲:中国国家机器人标准化总体组年会是围绕着机器人产学研整体工作展开的,在标准化工作里伦理标准是一个比较新的领域。目前对于国家标准化管理委员会,包括国家机器人标准化总体组来说,机器人伦理标准如何具体实施还是个问号。理论模型和法律法规的制定、政策制定之间如何形成有效的互动关系,这些还并不明确。此外,除智能机器人以外,对于传统机器人的伦理规范还需要继续补充。

这次大会当中总体组组长在做科研和产业方面的分析的时提到,新兴的机器人和人的协作变得更加密切了,更融入到人的生活当中,而不是只是停留在传统工业机器人的范围当中。一方面技术的发展非常的快,但是另外一方面治理的理念,以及背后的哲学反思其实是远远跟不上科技变革的。我们不难看出,在推进我国人工智能以及机器人伦理标准的制定、完善和实施方面还有很多工作要做。

| 07. “用户中心”存在危险,机器人伦理标准意在促使该产业走向“人机和谐”

《文汇报》:目前,伴随着人工智能技术的快速进步,机器人的应用已经深入了社会生活,在工业、医疗、家庭服务以及军事等领域都发挥了重要作用。与此同时,机器人的应用也引发了人们新的担忧,例如机器人代替人工而引发的失业问题。在您看来,当下机器人开发和应用存在哪些伦理风险?

刘哲:每一个不同类型的机器人的伦理风险有不同的体现。我认为目前真正的伦理风险并不在于公众所直接看到的。例如,工业机器人,它的确会使得传统的一些分配给人的任务消失了。但是任务消失并不等同于岗位消失了,一个岗位可以区分出很多不同的任务,人应当去从事最能够展示人自身独特价值的任务。在我看来,真正的伦理风险在于人们思考这些问题背后的伦理视角,如果还是以人类中心主义的视角看待机器人伦理,我觉得这可能就是最大的风险。

《文汇报》:有观点认为机器人业的技术进步在很大程度上是由市场和经济效益驱动的,“给机器人设定伦理标准对于机器人的技术创新是一种阻碍”,您如何看待这种观点?

刘哲:人们之所以会认为机器人产业是由市场推动的,是因为二战以来市场经济的发展带来了一个趋势:国家发展要满足每一个个体需求。但,如果我们仅仅将科技创新视为任由市场、由人的物质利益驱动,这将会带来风险和灾难。当下,新型科技例如纳米材料、生物技术、人工智能和机器人技术等,展现出自身发展的变革性特征,它们具有转型性(Transformational)、涌现性(Emerging)以及颠覆性(Disruptive)特征。因此,我认为以“用户中心”模式来推动新型科技创新的发展思路是欠考量的。

在过去这几十年技术哲学的发展当中,人们越来越多地形成共识——所有的人工制品都体现着设计者和制造者的价值偏好,因此,技术产品并非人们通常认为得那样价值中立的。市场经济推动的单一发展模式势必造成技术创新与伦理价值约束之间的冲撞。为机器人设定伦理标准就是在引导人工智能和机器人科技在研发和设计之初就更好的展示人与其他物种以及环境的整体性价值,这对于技术创新不是阻碍而是促进。

| 08. 人机伦理关系是“共生关系”,设计者应在最初设计时包含此信念

《文汇报》:一些学者提出,当前人类文明已经进入了技术文明时代,自然人正在经历技术化的过程,甚至技术已经不受人控制了。例如,弗朗西斯·福山在《我们的后人类未来》一书中指出生物技术将改变人性。在您看来,如何理解人类伦理和机器人伦理的关系?未来人类社会的伦理秩序是否会被包括机器人在内的人工智能的伦理秩序所影响和改变?

刘哲:当我们把人和机器人纳入到整体性的目标机制价值当中,也就是当考虑人机伦理关系时要从“人机关系”整体出发,而不是从割裂的、独立的人的价值属性和机器人的价值属性出发,这类问题就很可能不会出现。设计者在筹建机器人伦理时的价值考量从一开始就建立在特定的人机关系塑造基础上,这样的伦理关系就是一种共生系统。

另外,类似的想象有可能是来自于科幻电影。当下公众和很多关心技术哲学领域的学者容易从科幻电影里面去思考人工智能和机器人带来的各种各样的伦理风险和挑战。我想提醒这样做的风险是非常大的,这往往会令我们对于迫在眉睫的人工智能和机器人技术引发的伦理风险和后果视而不见。而且科幻电影背后的传媒叙事逻辑也可能会极大地缩窄我们对于新型技术伦理风险考虑的多元视角。我们还是需要更加准确和深入地面对今天人工智能和机器人技术的发展现状,以及在可预见未来的科技发展前景,这才是一个真正可靠的伦理理论思考的前提和依据。