活动
活动预告
活动回顾

数字化治理的伦理落地——2021全球人工智能技术大会“全球视野下的人工智能伦理论坛”

2021-05-28 00:31:41

2017年以来,各国政府、智库以及谷歌等跨国科技企业纷纷提出人工智能治理原则,其中 “隐私”、“安全”、“透明”等原则得到各界认同;同时,人工智能技术以前所未有的速度在社会中普及和应用,影响遍及人类生活以及大自然的各个角落。

如何使那些已经达成共识的治理原则在技术上、文化上“落地”?技术持续发展,与此同时也进一步塑造着人类社会,这又为我们带来了哪些新的伦理议题? 在应对新冠疫情防控时,数字治理起了非常重要的作用,但是也带来信息被过度采集、滥用的风险,“隐私”、“安全”的法律、文化界限在哪里?

6月6日,作为“全球人工智能技术大会”的重要部分,由中国人工智能学会(CAAI)主办,CAAI人工智能伦理道德委员会(筹)、北京大学博古睿研究中心承办的“第三届全球视野下的人工智能伦理论坛——数字化治理的伦理落地”在杭州举办。

论坛分主题一“伦理和数据治理需要落地!智能技术与数字化治理” 结合当下人工智能技术运用的问题场景,试图解决:人工智能伦理在数字产品上的具体实现问题;人工智能在解决重大社会问题中的应用和带来的问题;大数据时代与后疫情时代的隐私保护;智能技术在未来社会的进一步应用与产品开发的探索等问题。

主题二“伦理背后的深层问题需要搞清楚!人工智能伦理与人类社会”则对人工智能技术的伦理内涵、社会内涵与文化内涵进行原则性思考,并试图回答:人工智能技术对人类的长远挑战;深度科技化时代的技术伦理问题;智能技术的文化社会内涵与全球化数字治理远景等问题。



#1    “伦理和数据治理需要落地!智能技术与数字化治理”


01.1.jpg

 怎么让机器学习更公平? 


作为人工智能技术开发的专家,来自南方科技大学的IEEE会士之一的姚新教授对技术带来的伦理和社会问题一直很关注。从技术研发的角度,他首先从人工智能伦理这个基础的话题谈起。


伦理学一般分为元伦理学,规范伦理学,应用伦理学。规范伦理学又包括美德伦理学(virtue ethics),道义伦理学(deontological ethics)和后果伦理学(consequentialist ethics)。而技术伦理属于应用伦理学的一个分支,讨论应用技术的后果和过程中的伦理学问题。主要领域包括纳米伦理学,信息伦理学等,人工智能伦理属于这一领域。从2010到2020年的十年间,各国政府、学术机构和公司等组织陆续发布了101个人工智能指南文件。这101个文献中的关键词中,有86个提及透明性原则(transparency),82个提及公平公正原则(justice and fairness)。

怎么保证符合人工智能伦理呢?姚新老师认为这主要通过技术、管理和法律手段实现,三者层层递进。因为算法的问题,谷歌图片错将人标为猩猩(2015),亚马逊AI的性别歧视问题(2018),这就涉及到公平性的问题。机器学习的公平性近年来备受开发者的关注,仅2020年就有超过100篇经过同行评议的论文被发表,或许这意味着可以通过技术手段来提高公平性。公平性的衡量指标包括:(1)基于预测结果的指标:即定义什么是公平性;(2)基于预测和真实结果的指标;(3)基于预测概率和真实结果的指标;(4)基于相似度的指标;(5)基于因果推理的指标。举例来说,公司招聘数据中区分敏感和非敏感属性数据,非敏感属性例如工作年份,敏感属性例如性别,如果依据敏感属性进行分类则会引起出现不公平性的可能。同时,公平与否的判断包括两大挑战——模型准确性和公平性矛盾,不同公平性指标之间的矛盾。姚新老师最后提出,重权衡,少损失,多样解,高并行的多目标学习可以达到更公平的机器学习。




01.2.jpg

 北美AI伦理概况和企业对AI伦理的反思 


博古睿学者、来自加拿大麦吉尔大学的刘晓老师主要介绍了北美AI伦理目前的发展概况并提出了自己对AI伦理实践的反思。


目前,北美AI伦理原则的主要参与者包括政府、企业、学术机构、行业协会和非盈利性组织等,他们在政府对AI技术采购、人脸识别的应用、企业赞助非营利性机构的运作等方面合作紧密。最为AI 从业者所熟悉的是The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems。该机构为了确保从事AI开发技术人员受到足够伦理训练,制定了IEEE7000,并强调不同文化间伦理的多元性。非营利机构中包括已有的国际知名机构, 例如位于旧金山的Centre for the Fourth Industrial Revolution是世界经济论坛的分支机构,他们和各国企业政府合作制定AI治理框架。位于纽约的Data & Society通过人类学田野研究AI在应用过程中出现的问题,而Montreal AI Ethics Institute正在从事的工作是对AI伦理出版物进行整理摘评,另一家位于旧金山的机构Partnership on AI获得了多家大型技术企业的支持,DataEthics4All则普及孩童教育。此外,也存在大量挂靠高等院校的研究机构。

目前,谷歌,微软,IBM等公司都发表了“负责任的人工智能”原则,聘用专门人员进行研究讨论,但公众对此存在不少质疑——这些大型公司是否真的有动机致力于AI伦理实践?这一质疑与两个事件相关,其中之一是谷歌解聘AI伦理研究者Timnit Gebru,领导层与其关于一篇自然语言识别文章产生分歧,这篇文章没有通过谷歌内部评审。另一事件是Karen Hao于MIT technology review发表的“How Facebook got addicted to spreading misinformation”中认为,脸书(Facebook)缺乏有效审查遏制AI推荐虚假信息和极端言论的深层动力,因为这和脸书要求增强用户数目和粘性的商业模式是有抵触的。

据此,企业AI研究者的角色其实具有双重性:一方面他们是AI伦理的倡导者,但同时他们也是企业的雇员,这些研究员必须考虑企业自身的构架和组织文化。Data & Society在2020年9月发表了一篇关于企业伦理的报告,将这些在企业中从事AI Ethics研究的人称为Ethics Owners,他们的职责是确保企业AI的运用是合法合理的,文章讨论了他们在企业中的作用和工作中面临的问题,并为他们提出了几条建议,比如建立案例资料库并实现公司内或跨公司的经验分享,提倡Ethics Owner们与公民权益保护组织建立合作,考虑可量化标准之外的绩效测评方式。Partnership on AI最近也发表文章提出,现在多数企业的AI伦理职能界定不清晰,缺乏有效绩效考核方式,未来的伦理实践应该贯穿整个产品生命线。由此可见,AI伦理许多复杂的问题其实没有既定规律可循,要让AI伦理发挥作用,必须和具体的企业组织文化相结合。

最后,刘晓老师针对AI伦理实践提出自己的反思:她认为AI伦理应该和治理紧密相连,围绕AI数据和经济模式问题,发掘数据治理模式的多元性,可以打破巨型企业对数据的垄断,孵化更多有活力的AI创新企业,让用户对自己的数据更有掌控权。其次,针对AI伦理和治理的非西方视角与新兴市场,应该考虑地缘政治、非西方国家的经济发展实际情况,以及新兴市场的数字化和网络化情况。




01.3.jpg

 从个人信息保护法看算法中的“人” 


对外经贸大学的许可老师主要讨论了算法对人的控制以及个人信息保护法的法律回应。


马克思在《德意志意识形态》中指出:人不是单个人所固有的抽象物,个人的一定的活动方式,是他们表现自己生命的一定的方式,他们的一定的生活方式。个人如何表现自己的生命,他们自己就是怎样。

算法恰恰通过“对人如何表现自己的生命”加以影响,以实现对人的控制。

我们可以上述控制可分为如下三步:

第一步是个人画像 (profiling),通过收集、汇聚、分析个人信息,对某特定人的职业、经济、健康、 教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程,从而达到“知道你是谁”(who are you?)的目标。

第二步是个性化推荐,即基于特定个人的网络浏览历史、兴趣爱好、消费记录和习惯等个人信息,向他们展示信息内容、提供商品或服务及其价格等活动。算法利用人的喜好,投其所好,潜移默化地塑造你。

第三步是产生自动化决策,即在无人干预的情形下,由算法手段对人作出决策。自动化决策主要分为单独的自动化的决策(例如红灯拍照罚款),和基于个人画像的自动化决策(如健康码)。这种决策人将产生重大影响,可以带给你利益,也能剥夺或限制你的权利。

针对这三个步骤,个人信息保护法中也应有三种法律回应。

首先,个人画像的法律回应包括:确保个人的知情同意;应遵循最小化规则(即应当限于必要的范围内);对个人特征描述不应包含淫秽、色情、赌博、迷信、恐怖、暴力的内容;或者表达对民族、种族、宗教、残疾、疾病歧视的内容;对未成年人应有特殊保护,比如全面禁止对未成年人个人画像。

其次,针对个性化推荐的法律回应包括:明确算法的透明性,显著区分个性化展示内容和非个性化展示的内容(比如对新闻内容的推荐);赋予个人选择权,应当同时提供不针对其个人特征的选项,或者提供个人拒绝和退出的选项;反垄断或反不正当竞争规制,具有市场支配地位的企业不得滥用市场支配地位,不得无正当理由对交易条件相同的交易相对人实施差别待遇;对未成年人特殊保护:禁止对未成年人进行个性化推荐。

最后,针对自动化决策的法律回应包括:个人信息的风险评估,就个人信息处理目的,处理方式是否合法、正当、必要,对个人的影响和风险程度,对所采取的安全保护措施是否合法,有效并与风险程度相适应等作出评估;同时,应赋予个人以知情权、算法解释权、拒绝权和人工干预权。




01.4.jpg

 人工智能伦理治理的实践路径 


腾讯研究院的曹建峰研究员主要讨论了在行业背景下,目前实现人工智能伦理治理的几种途径。


首先,国内外各大企业,如谷歌,脸书,IBM,DeepMind等纷纷设立伦理委员会,推进伦理研究与审查。例如,谷歌成立了负责任创新团队,对谷歌AI相关产品与交易进行伦理评估,以落实其AI原则。再比如,微软在科技伦理方面的AETHER委员会下设七个不同的工作组,将不同的问题拆解,设立工作组对自己的AI研究与应用进行伦理审查。自2018年剑桥分析事件后,脸书也成立了相关机构对内部算法进行研究。这些机构主要对企业自己的技术应用和对外商务合作进行伦理评估。关于伦理委员会的运作,可以从四个方面来看:首先,建立多元参与的社群;其次,建立及时反应的机制;第三,建立内部机制,包括敏感案例、工具开发等;第四,发挥治理主体的作用,成为制度知识的资料库。为法律制定探索先行经验,通过伦理探索推进治理。

第二个趋势是开发伦理工具,解决可解释、公平、安全、隐私等问题。例如,联邦学习框就可以有效解决数据隐私问题,几个组织之间不需要数据共享就可以联合开发算法。再如,在算法透明方面,既有政策都没有简单粗暴要求公开算法的源代码或训练数据集,因为这往往会带来巨大风险,如黑客攻击、用户隐私泄露等,而且无助于公众理解算法。行业在探索的模型卡、AI事实清单等机制也在致力于解决AI算法模型的透明度与可解释性问题。如何在算法中实现透明性,对算法的模型有一个一般性的说明,都可以通过设计工具实现,最终实现“伦理嵌入设计”(“Ethics by design”),就像通过设计的方式保护隐私一样(privacy by design)。

第三个趋势是打造伦理SaaS,在云、算法等平台上提供伦理服务。可信AI和AI伦理服务(ethics as a service)是AI领域的最新发展趋势,AI伦理相关的创业公司不断涌现,在云、算法等平台上构建AI伦理服务体系,提供解决AI伦理问题、实现可信AI的技术解决方案。

第四是制定AI相关伦理标准,推进伦理认证,例如IEEE发布的人工智能伦理认证项目。

第五是开发AI相关伦理课程,加强伦理培训,例如谷歌开发了一系列伦理课程与培训,包括针对所有雇员的AI伦理教育材料与课程、高级别的伦理课程、解决AI原则问题的深度培训、技术伦理培训(technology ethics training)、AI原则实践培训等。在伦理培训方面,企业需要和学术界等加强合作。

最后,人工智能治理离不开科技人文协作。技术与伦理的互动如伦理嵌入设计、伦理SaaS等是一方面,法律治理是另外一个方面,需要在隐私与数据利用,透明可解释与效率、安全等方面实现平衡。




01.5.png.jpg

 AI能不能带来人类需要的改变? 


中国科技大学机器人实验室主任陈小平教授从讨论人工智能伦理和治理问题出发,认为AI为人类带来的改变并非完全由AI应用本身决定,而是由人类社会的多重因素决定,因此相应地也需要创新系统的支撑。


常识意义上的伦理是人的行为准则,人与人之间和人与社会的义务,伦理具有双重作用,它规定人应该做什么,人不应该做什么。那么AI伦理据此也应该具有双重作用,即AI应该做什么,不应该做什么。

AI伦理和治理的基本问题是“人类对AI的根本伦理诉求是什么?”陈小平认为,这个诉求就是:AI能不能带来人类需要的改变?

chen.jpg

在这一讨论中,首先需要区分“研究”与“应用”。技术应用是practical application of knowledge,而技术研究是scientific study and use of mechanical arts and applied sciences。比如AI技术中,深度学习算法的研究属于技术研究,因为这些算法并非终端产品,通常无法被普通用户使用。而用深度学习算法和应用领域数据训练出来的神经网络是产品,可以为终端用户提供所需的服务。产品的研发过程属于技术应用。

建立在这一区分上我们可以做出一个基本判断,即AI技术研究及其直接成果通常是价值中性的,而AI技术应用(研发和产品)往往不是价值中性的。所以,我们应当呼吁的是,将价值中性设为AI研究的基本伦理守则,对AI研究和AI应用进行分类治理。

AI带来的改变并非完全由AI应用决定,技术应用需要创新系统的支撑。目前普遍实施的熊彼特(Schumpeter’s innovation system)创新体系,是市场要素的商业化组合;它有足够的商业利益,能产生税收,满足用户需求,效率高,除此以外没有其他的伦理约束。因此,它存在一定局限性。比如其虽然普遍适用于全球,却不适用于没有足够商业利益的社会需求,如人口老龄化(养老),产业少人化(长期就业)。它也会带来负面效应,例如数字鸿沟、阶层固化、低欲望社会等。因此,来自熊彼特模式的伦理问题比技术本身带来的更多、更严重。

在熊彼特体系上增加伦理约束对解决算法公平、数据安全等简单伦理问题有效,但对由熊彼特体系产生的深层伦理问题无效(因为商业和伦理的冲突),真正的解决办法是要实现从熊彼特创新到公义创新的升级。公义创新即市场要素和非市场要素的公义性组合,公义性是市场原则和人性原则中有效成分的提炼整合升级。技术研究和应用+创新模式的升级可以开辟更大的创造空间,实现我们人类需要的改变。




#2    “伦理背后的深层问题需要搞清楚!人工智能伦理与人类社会”


02.1.jpg

 人工智能与人性 


厦门大学人文学院院长朱菁老师认为,关于人性的思考是一个历史悠久的哲学问题,比如孟子认为人性本善,“仁、义、理、智四端”是与生俱来的,良心人人固有;与孟子同时代的告子却认为人性无善恶之分, “人性之无分于善不善也,犹水之无分于东西也”;荀子则认为人性本恶,但却可以“化性起伪”而向善。


西方思想传统中关于人性的讨论也非常丰富,比如霍布斯认为人性天然自私好斗,于是需要有强大外力约束;卢梭认为人性天然质朴纯良,冲突竞争乃是由社会造成的;休谟认为人性天然具有社会性,既有善良和富有同情心的部分,也有自私和争斗的部分。

当代关于人性的探讨仍在继续,哲学家福柯、乔姆斯基、哈贝马斯、以赛•亚柏林等均有著述。现代科学,包括生物学、心理学、社会科学、遗传学、神经科学和生物工程等,使得对人性的探究超越了纯粹的哲学思辨,而成为跨学科的研究领域。

那么,何为人性呢?朱菁老师认为,人性是人类作为一个物种所特有且普遍具有的生物和心理机制,及其相应的行为模式,人性具有稳定性,但也同时兼具演变性和可塑性。人性的塑造一方面受到自然演化的影响,另一方面是文化的作用。人性的升华意味着扬善弃恶,带来文明的进步。

朱菁老师认为,人工智能的开发、应用和治理需要建立在对人性更为深入、全面和准确的了解的基础之上,因为人工智能归根结底是人性的投射和延展。向善的人工智能应当有助于克服人性的缺陷,促进人性的升华。他谈到公众理解人工智能具有某种过度拟人化倾向,这与宗教的认知起源和人们容易轻信种种阴谋论,或许具有相似的认知与社会心理基础,是人性的某种展现模式。此外,社会心理学研究发现,人类的社会生活中普遍存在“党同伐异”的现象,对于同类与“非我族类”,会自然而然地采取不同的评判标准和态度。据此,人工智能能否有助于克服人性的缺陷,帮助人类减少因固有的成见、偏见和不信任,而产生的隔离和冲突,共建人类命运共同体。这在全球化进程不断演进却不时遭遇重挫和挑战的当今时代,是尤为值得思考的重大问题。




02.2.jpg

 人工智能与人:关于伦理学的不足,或伦理学问题与哲学/概念性问题的差异 


博古睿研究院的托比·芮思问道:人工智能如何威胁到人类?人们为何不能在当前区别人-自然-技术的框架内部理解人工智能?在此次演讲中,托比·芮思对机器学习对人类例外论的挑战进行了缜密分析,从而探讨人工智能和人的伦理学研究中的不足之处。


首先,他明确指出,当我们的是非观念受到挑战时,就会出现伦理学上的问题。其目标是在政治上强化我们的规范,并确保不再有人违背这些规范。在这个意义上,伦理学问题往往也是政治学或法律上的问题。而当我们一直秉持的思维方式不再有效,就会出现哲学/概念性问题。这意味着,当新的现实出现,旧的概念假设失效,或者新的洞见使得这些假设站不住脚时,我们就不能再延续旧有的思考方式。

托比·芮思的论点是,人工智能首先是一个哲学/概念性问题。当人工智能以机器学习的形式,破坏了组织可能性空间的概念假设——我们一直在这个可能性空间内思考问题(尤其是关涉人类时),人工智能便是一个哲学/概念性问题。结果,本来为人工智能提供监管框架的伦理规范可能会错失目标。

他以思想史家的眼光,认为“人”不是一个必然事实,而是有着较近起源的概念。他引用列维-斯特劳斯(Levi-Strauss)的话以说明这一点:“我们知道,涵盖各种人种,包括所有种族或文明的人的概念,在历史上出现的时间很晚,也绝然不能普遍适用。”几千年来,没有人试图阐明外延为曾生活于这个世界的所有人类,具有普遍性、全面性的“人”的概念。

因此,在17世纪初的欧洲,人们不得不创造出“人”。当时的学者认为,人超越了自然,又不可逆地区别于单纯的机械装置。他们所用的判断标准是理性(智力)。人拥有理性,自然(如动物、植物)虽然可能拥有本能或感觉,但没有智力或理性,而机器只是各种装置而已。这可谓区分人-自然-技术的伟大事件,从此人与自然区别开来,与机器也产生距离。人类例外论的出现催生出一个由三个本体论领域(社会、自然界和技术世界)组成的世界。“人”是对何以为人(超越自然和机器)、何为自然(起源和非技术领域)以及何为技术(从属的和人工的)的概念化。

托比·芮思认为,机器学习的出现对人-自然-技术之别影响极大。传统观念认为只有人类才具有运用符号的智力。然而,借助机器学习,科学家发现神经结构能以多种形式存在。智力的发生不需要大脑皮层、中枢神经系统或其他人类独有的特征。因此,机器学习打破了人与智力之间的独有关系,并将专属于人的智力转变为多种智力,智力成为包括多个属(如人、动物、植物、机器的智力)的一个科。存在各种类型的智力超越并因此破坏了人的本体论。由于“人”的概念也是对何为自然和何为技术的概念化,因此机器学习是一个异常重要的哲学事件。它标志着人类例外论可能的终结,是东西方集思广益进行思考的巨大机会。

当谈及机器学习的伦理学/政治学意义时,对人工智能的传统看法似乎假定只有人类才有道德体系和政治原则。托比·芮思所了解的所有伦理学和政治学批判,都依赖于经典的现代政治学概念,从人的观念那里受惠良多。事实上,似乎每当将人与自然和技术区分开来的旧本体论受到质疑时,伦理学上的问题就会出现。

托比·芮思认为,这一真诚的哲学问题是思考和学习的机器献给我们的礼物之一。他呼吁哲学家和伦理学家进一步思考,是否有路径解决人工智能带来的伦理挑战。这些路径既不依赖也不重塑人类例外论的旧模式,不反对人工智能引发的新现实,反而有助于它们的形成,并能帮助我们在西方现代意义的“人”的时代之后建立一个更为美好的世界。




02.3.jpg

 智能技术的伦理和风险:算法对注意力自由的威胁 


夏威夷东西方中心的何随德(Peter Hershock)认为,大数据和智能技术正在几乎不受控制地以复杂、递归的方式改变人类、技术和世界三者之间的关系。现在,人们很多注意力都集中在超级智能以及人类将被淘汰或灭绝的风险上。但是,正如何随德指出的那样,在这样一个技术奇点从科学上还远未成为可能之前,由大数据推动的智能技术可能会使我们仓促地来到一个伦理奇点,而一旦出现这种情况,人类对发展方向进一步修正的机会空间将会崩溃。


在分析如何避免这种崩溃之前,何随德为我们理解其中的风险、技术及两者之间关系,做了一些概念上的铺陈。

风险不是可以在时空上精确定位的自然发生的现象。与实际的危险不同,风险是虚拟的危险,可能会也可能不会形成妨碍我们实现自己想要的未来的事件。因此,任何风险评价都不可避免地存在主观因素,风险评估从根本上受到特定价值观念的影响,并且因不同观点而异。

技术经常被等同于工具。其实,工具是局部性的东西,是为扩大或增强人类能力而设计和制造的。就工具而言,个人享有“退出权”。我们完全可以选择不使用它们。技术是体现和应用重要且规范的价值观的物质实践和观念实践的关系系统。事实上,我们既不制造也不使用技术。它们是我们参与其中的“环境”。两者的区别让我们能够看到,大多数人工智能伦理准则关注的设计事故和设计误用,实际上是工具风险。而技术风险是结构性和关系性的。

为了进一步阐明他的观点,何随德解释说,“枪不会杀人,人才会杀人”的主张是在有目地将批判的注意力引向工具及其使用者,而避开武器技术。而武器技术本身是一个关系动力学和实践系统,旨在调整和建构人类以最大力量伤害他人且最大限度保护自己的意图。虽然我们个人可以选择不使用枪支,但就武器技术对社会和政治的影响而言,我们都没有“退出权”。在人工智能伦理中,如果新兴技术与不协调或冲突的价值观同流合污的话,过度强调建立技术上可行的设计目标以及法律上可行的“智能工具”使用标准,同样会导致对这种情况带来的结构和关系风险的忽视。

借助工具/技术之别,我们可以明确区分与对数据的选择性利用相关的风险和与数据获取方式系统性相关的风险。何随德认为,后者更令人担忧。机器学习的不断进步与数字基础设施的发展是相称的,数字基础设施最大限度地提高了连通吞吐量,不断从数字搜索、社会生活和商业活动中获取数据,利用这些数据洞察个人的愿望、恐惧、价值观和意图。对个人注意力的全面吸引和利用,同时提高了算法智能预测我们在诱导之下索取、执行、寻求和回避等行为的精确度。何随德认为,智能技术培养注意力的认识论力量也是一种本体论力量。它们是从里到外地改变人类经验的力量。

人类大脑最基本的工作不是发现事物是什么,而是去辨别事物如何变化。这包括三个方面的内容,首先是预测:准确预测事物如何变化。其次是准备:用心想象各种关系的可能性以增强个人的适应性。最后,预测可以包括对可能发生之事和应该发生之事相互作用的情感关注:在寻求和获得最重要的东西时确定什么东西是最重要的。算法改造过的注意力捕捉可能导致预测思维能力在上述三个方面的衰退。随着承载道德意义的决策被外包给人工智能工具,以及人类经验经过数字化定制,我们越来越难以自行做出决策并从自己的错误中学习,我们可能会失去最基本的自由——注意力自由。

强有力的专业行为准则和法律制度可能足以减轻智能工具目前的设计和滥用所带来的预期风险。但是要减轻智能技术的结构和关系风险将需要伦理上的智慧和多样性。何随德最后认为,我们需要一个全球伦理生态系统,它通过跨文化和跨代际地致力于促进公平的思考和随机应变而得以维持。他相信人类伦理能动性的未来完全取决于此。




02.4.jpg

 数据凝视下的忧惧:人工智能的社会技术想象与伦理策略 


博古睿学者、中国社会科学院哲学所研究员段伟文教授的讨论主题是“数据凝视下的人”。所谓“数据凝视“,某种程度上意味着我们就是数据——各种信息记录和数字痕迹将我们的行为转换成了数据,我们成为了福柯笔下的作为新知识客体的可测量类型。而在这其中,并不是所有人都具有凝视和测量他人的权力。大多数人在数据化权力运作中,并不知道这样的过程如何进行,也不知道这些数据从何而来。


反思数据洞察与算法决策黑箱

首先,他探讨了监控资本主义对用户行为数据的开发。根据祖博芙(Shoshana Zuboff)在《监控资本主义》一书中的观点,谷歌等监控资本主义的运作者通过对用户行为、特征的了解,生成行为数据,并将其转换为行为剩余——用以洞察用户甚至影响用户,获得超级利润。因此,在这一过程中,谷歌并不关注它们所提供的内容,而致力于了解用户,对其数据进行深度挖掘和计算。

不论这一过程是计算还是算计,看似涉及哲学中的“他心”问题,也就是我怎么知道别人的心思。但在猜人心思的时候,往往并不需要这种哲学论证。实际上,数据平台之类掌握数据的主体是在对用户进行揣测,所运用的更像维亨格尔(Hans Vaihingerd)的疑似哲学(philosophy of as if)。它强调我们之所以形成对世界的观念,并不是为了复刻现实,而是借助所获得的大概的认知,使我们对世界的探索变得更容易。据此,特定的主体认为其可能遇到未知的风险时,就会在其权力所及之处,采取“先发制人”策略,以寻求对未来的不确定性的控制。

追问数据凝视下的软生命政治

随后,段伟文教授对“数据凝视下的软生命政治”进行讨论。他提出“数据疤痕”这一概念,即数据成为了每个人新的皮肤,每个人与他人和某个地方的联系都会留下数据足迹,而其中有些不那么好或有嫌疑的数据,一旦留下印记便会被人观察到,且难以消除,成为数据皮肤上的疤痕。

duan.jpg

段伟文认为,现在已经进入德勒兹讨论过的“控制社会”而非传统的福柯意义上的“规训社会”,社会管理与治理模式亦正在从生命政治过渡到软生命政治。比如,从数据来看,如果喜欢看阿根廷足球的男性较多,则一旦发现某用户的数据显示他/她喜欢看阿根廷足球,则很有可能因为该用户大概率是男性,而不论其真实性别都会将其数据签名设定为男性。

在这种软生命政治的运作中,真正值得关注的是智能机器参与数据洞察和算法决策所带来的结构性的根本改变。比方说,有些人往往会担心通话或聊天记录之类的数据会不会被泄露,但其实在数据洞察中所用的是通话时间、长度、地理位置之类的元数据,因为这是目前智能机器相对容易处理的数据。类似地,脸书等社交媒体平台所带来的真正的挑战并非对某个具体个人的助推与引导,而是这种新的平台可能找到有效掌控人的情绪和左右舆论的运作机制。

正视深度科技化时代的文化滞后

技术发展所带来的颠覆性改变,其实就是技术社会学奥格本所说的“文化滞后”(culture lag)现象。所谓文化滞后,是指当物质文化变迁过快时,难免导致那些对物质文化加以调节的非物质文化相对滞后。这些非物质文化又称为适应文化,包括用于调节物质文化的技术、宗教、伦理、法律、信仰等,当某些技术驱动下的物质文化,如当前由数据智能驱动的数据智能监测文化发展过快时,现行的伦理法律跟不上,甚至落差不断加大,自然就出现了各种价值冲突、伦理抉择和法律碰撞。

因此,人文哲学与科技伦理所关注的问题是,在技术、法律和伦理发展到进入新的稳定态之前是否能减少对人的伤害。比如能否避免网约车司机与跳车女乘客因相互不信任导致悲剧。为此,应该深入理解人工智能等颠覆性的技术所带来的物质文化变迁。

面向未来的社会技术想象与智慧

最后,他呼吁,面对日益智能化的未来社会,是时候对一些根本性的问题展开讨论,其中包括一些可能会导致高度争议的结构性问题。例如,可不可以对社会实施“可能性管理”,即能不能根据过去的数据和行为评分决定人们当下的机会和未来的可能性。而这些问题往往又是十分复杂的,很难从现有的法律伦理和社会文化中找到答案。以特斯拉导致的数据安全争议为例,智能辅助驾驶与将来的自动驾驶技术的发展本身就是建立在信息监测之上的,对道路环境与车内情况进行实时动态的高精数据收集与监控是其运行的前提条件,这对数据安全和数据隐私带来的挑战其实是现有法律伦理无法简单予以应对的。如果说未来我们必将进入数据和智能监测社会,那么就不能不探寻一种新的社会契约,才可能在推动技术创新与控制伦理社会法律等风险之间找到新的平衡点。

他建议,面对人工智能所带来的未来挑战,我们应该正视数据凝视下的各种伦理法律及社会文化层面的焦虑,运用由此带来的忧惧影响对未来的社会技术想象,促使每个人认真思考什么是我们真正想要的未来。在此过程中,需要充分借鉴人们在技术的社会应用中已经获得的一些经验性的认知与智慧。

他总结指出,不论技术发展到哪一步,一个最基本的智慧是,技术赋能管理和治理固然可以更有效地解决各种人与社会的问题,但仅仅依赖技术而诉诸技术解决主义是行不通的。在拥抱人工智能等深度科技化发展所带来的美好生活的同时,必须对可能滋生的各种机器官僚主义与技术解决主义保持高度的警惕。

蓝天蒙[实习生] | 编辑



简介

活动主办方:

中国人工智能学会人工智能伦理道德专委会(筹)
机构  
博古睿研究院中国中心
机构  

活动时间:

2021-06-06

活动地点:

杭州、线上直播

活动状态:

已结束