“人工智能的伦理与治理”的15个要点

2019GAITC全球视角下的人工智能伦理论坛精彩回顾

2019-08-27 00:47:45 分类: 人类变革

自人工智能诞生起,AI伦理的争论也随之产生,这是一个世界性的议题。暂且不谈未来机器人控制人类的超现实担忧,就当下已发生的一些个案也在提醒我们,如果人类社会与人工智能发展缺少信任的基础,如果人工智能技术不能合规合法的使用,必会产生严重后果。

在南京召开的2019第四届全球人工智能技术大会GAITC)上,耶鲁大学技术与伦理研究中心主任温德尔·瓦拉赫(Wendell Wallach)发表了题目为《人工智能的伦理与治理》的主旨演讲,阐述了如何通过管理、伦理和监督,实现最大化AI效益+最小化AI风险,试图为化解AI伦理挑战探寻有效方案。

 

现将5月25日瓦拉赫主旨演讲的15个要点摘录如下:

·全球对人工智能伦理标准的态度

当前,同时存在着分歧明显的技术乐观主义者和技术悲观主义者,虽然多数人认为,技术预示着勃勃的希望和更高的生产力,但科学研究发展轨迹和一些技术广泛应用的趋势仍让人心存忐忑。

·人工智能伦理原则的现状

2019年5月28日在瑞士日内瓦举行的“人工智能造福人类全球峰会”上,与会同仁普遍认为,发展人工智能之目的应该是——最大限度提高所有人的福祉。而对目前42个相互重叠的人工智能伦理框架,进行调和应该成为下一个最紧迫的优先事项。这需要发掘存在的异同,加快确认并达成共识。

·每一份人工智能伦理清单都出现的四项价值观

第一,隐私性;第二,可责性;第三,公平性(偏见最小化);第四,透明性。公私合作(PPP)模式在包括中国在内的许多国家和地区已经形成了一定规模,这些组织或机构正面临着管理特殊隐私与继续发展人工智能相结合的复杂问题。

·计算机技术对公共行为及舆论的影响

5月,美国旧金山禁止警方使用人脸识别技术,这导致警方及其他机构使用大型个人信息数据库进行监视成为舆论焦点。虽然这些情况可能会导致国家和地区政府对使用新技术进行大规模监视持不同的态度,但我们不应牺牲保护个人自由和少数群体权利的公认准则。

·减少算法偏见

例如,对种群和性别的偏见,数据输入时重复已有的人类偏见;在做出决策时,应杜绝采用带有偏见的输出结果。虽然这已经引起广泛重视,但目前无法彻底消除输入或输出数据中的偏见。尽管如此,我们仍然应该尽量搜集现有的偏见,尽力将其对决策的影响降到最低。

·透明度

如果企业无法解释人工智能执行或实现目标结果的过程,则它们不应在关键任务应用程序或任何可能危害人类的应用程序中采用人工智能技术。这种思考方式需要与问责制的必要性联系起来,而且需要重视复杂自适应系统的不可预测性和潜在危险,以及“黑箱”的学习算法。

·技术性失业

20世纪30年代,由英国经济学家约翰·梅纳德·凯恩斯(John Maynard Keynes)创造的这一术语,解释了当时长期存在的一种恐惧,即与其创造的就业机会相比,每一项创新和技术发展往往都会攫取更多的就业岗位。无论人工智能将对就业机会的总体趋势产生何种影响,由自动化所导致的工作岗位的严重削减是不可避免的。在主旨演讲中,瓦拉赫警告称,切忌为了实现效率的小幅提升而使整个行业和产业过度自动化,因为伴随这些收益而来的很可能是不断抬高的社会成本。

·致命的自动化“武器”

致命的自动化技术并不是一种武器系统,而是一个可以选择和摧毁目标的多功能体系,它可以被集成到各种武器装备(包括核武器或高能弹药)当中。即使智能程度较低的致命的自动化“武器”也会对强大的指挥、控制和问责体系造成破坏,并可能引发新的战争或导致敌对行动意外升级。

·“不应该由机器(算法)作出命悬一线的决定”

瓦拉赫对堪比人类智慧的人工智能也许会在不久的将来面世持怀疑态度。在各层级决策中,人类智慧和人工控制是必不可少的;并呼吁签署“禁止发展自动化武器”的国际条约。

·人工智能伦理准则要求在多领域设定警戒线

由于绝大多数双重用途技术带来了显而易见的灰色区域,因此,人工智能伦理准则要求在多个领域内设定警戒线。如,对大型个人信息数据库的面部识别和语音识别双重用途技术应加以限制。每个国家和地区都会制定人工智能发展的独特方案,在确保其用途符合伦理规范的同时,还应该尊重公民个体权利。

·形成完整的伦理责任的演变过程

未来需要解决的调查路径,包括伦理机制的设计、对敏感伦理问题的备选方案和行动事项。其中,需要注意伦理机制从“运作的伦理”到“功能的伦理”,并最终发展为完整的伦理责任的演变过程。研究和开发可评估、多个备选方案这些重要功能的伦理机制,仍然是未来有助于部署多种全新应用的潜在方案。

·人工智能的治理问题

人工智能的治理问题涉及一系列伦理/法律监督机制。当前,我们需要讨论的是一个能够不断适应情况变化的灵活的制度化结构,用于监控开发进程,标记差距,并从一系列可用的机制,如在行业标准、公司运营机制、试行的实践规范和程序以及可行的技术解决方案中,寻找解决这些差距的方法。

·治理协调委员会(GCC)

考虑到人工智能越来越快的发展速度,瓦拉赫提到了由美国亚利桑那州立大学法律与创新中心主任加里·马钱特(Gary Marchant)提出的一种新技术治理模式——“治理协调委员会(GCC)”。在这一模式中,治理协调委员会将负责协调各利益相关方的活动,监测发展情况,记录最佳实践规范以及对各种问题负责的各方机构,并标记存在的差距。

·第一届“国际人工智能伦理治理大会”

任何治理监管机构都必须首先是可靠的和可信赖的。2020年4月将召开第一届“国际人工智能伦理治理大会”,希望更多嘉宾参加这一会议。

·“短期收益都可能远远超过了长期的成本”

任何“短期收益都可能远远超过了长期的成本”,我们要从长远的角度考虑人工智能的问题。

 

瓦拉赫在结束演讲前表达了自己的愿望——希望中国在正确评估人工智能的伦理影响,以及重视“利用人工智能技术为每一个人服务”这一方面成为引领者。


*本文内容由北京大学博古睿研究中心春季实习生、北京大学燕京学堂在读研究生李康圭(Kangkyu Lee)整理。