人工智能、机器人与社会

日期
2018/03/17

已完结

人工智能、机器人与社会

2018年3月17日下午,主题为“人工智能、机器人与社会”的学术论坛举行。中国科学院科技战略咨询研究院研究员李真真、中国政法大学教授张保生、中国科学院大学副教授刘朝和浙江大学科学技术与产业文化中心副主任张为志分别就“人工智能应用与隐私权”、“关于人工智能法律系统的思考”和“我国自动驾驶民事责任主体的个性和格局——基于技术生态的视角”发表了各自观点。

中国科学院科技战略咨询研究院研究员李真真

隐私问题是人类生活及社会管理中备受关注的一个伦理困惑和管理挑战。李真真认为,隐私问题产生于技术发展所带来的个人隐私信息的收集和使用方式的改变。首先,人脸识别、物体识别、行为识别、语音识别等的应用,使得个人信息可以很容易被收集,导致原有知情同意策略失效。其次,数据挖掘技术使得大量个人信息成为可利用的公共资源,导致对个人隐私信息失去控制能力。第三,深度学习使用大量敏感数据训练学习算法,导致个人隐私数据被泄露的安全隐患。第四,信息技术创造的新消费模式,呈现了个人信息作为一种可用来交易的商品的存在,导致“隐私悖论”现象。由此,“隐私究竟是什么”再次成为一个需要追问和加以探讨的问题。与之相关,各界需要重新审视隐私权及隐私保护策略等问题,以应对技术发展带来的管理挑战。

李真真强调,人类对隐私的认知并非一成不变,而是随着生活经验的变化发生改变。隐私的情境化特征使得对隐私的理解变得复杂。隐私主要包括物理隐私和信息隐私。物理隐私是指私人空间的物理接触。传统上,隐私通常被作为一种“独处”和“不被打扰”的权利来理解和加以界定。近年来,发生于人工智能领域的一系列革命性的技术突破,使得信息隐私被纳入了日益广泛的内容。信息隐私是指一种访问可识别个人身份的个人信息。而随着信息隐私隐含的个人隐私与个人信息的交叉关系,使得隐私的边界变得模糊不清。

李真真介绍了其科研团队关于隐私观及意愿和行为策略所做的一系列调查及阶段性成果。对于调查中,只有近三分之一的被调查者“完全反对其信息可以作为交换”的一项指标数据。

浙江大学科学技术与产业文化中心副主任张为志

张为志对当下的隐私观表示担忧。他建议,除了案例中从隐私观的认知方面作出调查,还可以进一步对被侵害情况、侵犯现象等展开调研,并以此为我国相关政策和法律的制定提供研究基础。

中国政法大学教授张保生

“法律推理是智能模拟的最佳对象之一”,这是张保生在演讲中的论断。他介绍道,根据图灵测试标准,2016年欧洲人权法院的584个案件中,人工智能“法官”判决与法庭判决的一致率已达79%。智能法律系统的功能,一是辅助司法审判,解放律师和法官脑力劳动,使其专注于更复杂的法律推理活动;二是促进司法公正,由于缺乏七情六欲的机器比人受到的干扰因素要少;三是辅助法律教育和培训。

对于智能法律系统开发,张保生提出了两个难点:一是事实认定,即发现法律推理小前提的操作,“证据之镜”原理、概括之必要却危险和科学证据的“双刃剑”作用等,都决定了客观概率论不足以解释司法证明的性质,而主观概率论又忽略人的心理要素而不能完全传递复杂性信念的丰富内涵。最佳解释推论以“似真性”取代概率论解释,打破了对单一证据进行原子论解释的传统,确立了整体性案情观。事实认定从精确性到似真性,表明科学家不能代替法官。二是法律解释,即发现法律推理大前提的操作。解释的任务是说明法律实际上是什么。而法律解释的复杂性,回答了为何“国王不能成为法官”:法律是一种特殊理性,而不是命令、常识、道德哲学的运用和政策分析;因此,只有精通法律的法官才能运用这种理性。


张保生进一步解释认为,既然连“科学家”和“国王”都不能成为“法官”,机器人即使超过“科学家”和“国王”也代替不了“法官”,这是一个政治适当性的问题,可以通过立法限制机器人担任法官。智能法律系统的开发策略必然是“人—机系统”解决方案,它应该以威格莫尔图示法为逻辑起点,具有案件输入、法律检索、法律分析、事实认定、法律解释和法律推理六大功能,这足以使其成为优秀法官助理。而法律家与智能机器统一体的出现,将促进人工智能、司法文明和法学研究的共同发展,具有无限光明的前景。

清华公共管理学院副教授梁正

梁正的评议认为,从法学专家角度谈人工智能时代,其中非常重要的一个关键点是讲法律是一个特殊的理性。而这个问题不光是在法律领域,如在医疗等领域里,目前大量的讨论不是技术问题,而是伦理问题。比如在医疗救治过程中,AI能帮助人类做出最合理的决策吗?如果不能的话,理性选择是一种基于什么样的判断?这些问题可能是过去我们由于技术进步没有达到,根本不会去考虑;现在达到了,我们要开始开展这样的问题了。同样,还有很多跟这些非常类似的现实问题。

中国科学院大学副教授刘朝

在现实观照层面,刘朝以2016年两起特斯拉自动驾驶致人死亡事故发生(在本文撰写中,全球首例自动驾驶车辆致行人身亡事件在美国亚利桑那州当地时间2018年3月19日晚发生),以及2017年以美国《自动驾驶法案》(草案)出台和德国正式通过《道路交通法》(第八修正案)为代表的立法实践,展开了对全球范围内与自动驾驶汽车(也称智能汽车或智能网联汽车)相关法律问题的阐述。她认为,对安全的担心和法律规则的限制普遍,被认为是自动驾驶商用化的障碍。而其中所凸显的问题是,自动驾驶商用化的安全前景如何?当前自动驾驶技术水平究竟能减少还是增加交通事故?一方面,这些各国共性的议题在全球范围内见仁见智,尚未有共识,因此,基于实证经验的讨论就非常必要;另一方面,我国自动驾驶安全的现实和前景情况到底如何?如果自动驾驶全面商用化,我国的技术实力相比于其他有竞争力的国家,其程度如何?自动驾驶车企和有关方面有没有注意到我国在路况、路权和责任主体上的个性;如有,主要从哪些方面采取了特别的保障和防范措施?

对以上问题,刘朝表示,需要各界进行系统而全面的实证研究。但自动驾驶事故案例样本少,尚难以进行统计分析。好在全球技术发展进程中积累的大量自动驾驶知识产权数据中有很多线索,现在主要沿着其中一条线索——技术生态,即从知识产权实证调查入手,辅以其他实证资料,分析我国无人驾驶民事责任主体格局和个性,对我国无人驾驶责任的法律规制提出建议。她介绍道,实证研究显示,车企和相关科技机构等主体在技术上的后发劣势较为明显、路权争夺激烈和路况复杂又加大了技术难度,还有数量巨大的非机动车主体更可能成为交通事故受害者,构成了我国自动驾驶民事责任主体的三个主要个性。从整个主体格局上看,强势的车企和科技企业与弱势的大城市中低层市民之间形成云泥之势。这些给我国自动驾驶的技术竞争和产业发展带来挑战、困惑和特殊的难题。

具体而言,在这样的格局中,自动驾驶的规制应该遵循什么样的原则?刘朝提出,第一,近忧在法律之外。法律并不是阻碍自动驾驶上路和商用化的障碍,技术上劣势才是。第二,功夫在“智能”之外。在技术上的后发劣势短期难以扭转的困境中,既要谋求技术创新和超越,同时更要在智能技术之外,束缚技术和产业发展之处发力。第三,民安则为之。坚持现代民法保护弱者,维护公共安全的价值取向,在我国自动驾驶上具有特别重要的意义。

复旦大学中国研究院副研究员余亮

围绕刘朝的主题发言,余亮表示赞同“关注技术”。但又指出,其中难点在于“技术架构不可能是完全中立的”。掌握这个技术法律的是谁,政府、还是公司?余亮提出,在这一方面,人文和技术的隔阂还是蛮强烈的。当社会科学工作者希望参与技术的时候,有时候没有用。换句话就是,“底线思维不太有用”,看似强势的一方往往会被技术“忽悠”。对此,刘朝回应悲观和乐观的两种考量:第一,假设从法律可以画一条非常强大的底线,但在实际真正发生事故时候,这条底线能不能保证被保护人得到保护,想要救济的人得到救济?第二,关于算法,其实更多是对于算法的规制。随着技术在自动驾驶中变得越来越强势,如何从法律层面规制算法,怎么才算规制算法?而当下所面临的是,一旦上路,在发生交通事故处理的时候,我们就要考虑到谁拥有技术,那么,其即具有天然的优势、天然的强势。按照民法的发展和民法的民事责任的基本公理性的规则,无论是测试、上路,甚至是设计开始,强势一方就应当尽更大责任、更多义务。

每一次巨大的技术变革都与人类生活息息相关,在追赶更迭中,各领域不仅需要抓住机遇,也必须面临挑战。围绕下午的主题发言,与会嘉宾从各自行业视角出发,展开广泛而深刻的交流。

成为资本管理合伙人沙烨

成为资本管理合伙人沙烨以接触到的企业现状,就“自动驾驶”话题谈了自己的观点。他提出,现阶段的各类讨论应区分人工“智能”与“算法”,到了什么阶段才能称为“智能”?而他更倾向于认为相关行业产业目前的水准处于“人工算法”阶段。因此,没有必要对“智能”的发展过于悲观。“以前没有工厂出现的时候,是没有工厂事故的;而有了现代化的机器以后,才开始了这一范围的危害”,沙烨认为,“自动驾驶”是否成立这件事,重点需要关注效率提高多少。这实质上更多是效率与公平的问题。

北京元典美术馆馆长谷燕

北京元典美术馆馆长谷燕从艺术领域的“前瞻”特性出发作出思考,人工智能的发展,如同以往每一次技术革命所带来的生产力提高那样——解放了大量的劳动力。那么,这些人将会去干什么呢?此外,她进一步提出,无论是科学家,还是哲学家,这些社会发展进步的创造者们,其每一次发现与推进,基本上都是以为人类服务为目标,以人类最基本的良知、社会责任为底线,不停地一直向前走。但是,在大家你追我赶、争先恐后的世界中,不要忘记我们究竟是为什么要去发展?谁才是真正的服务主体?一定要静默一下,反思反省自身。不要在争做领先的过程中,把它们丢掉了。

合一集团创投董事长刘德乐

合一集团创投董事长刘德乐对人工智能的发展前景持乐观态度。他说,人工智能将大量的消灭工作,导致很多人会失去工作,这对社会造成的冲击将会是前所未有的。但是,从历史的角度来看,大量的工作都是由生产力提高而带来的,而“腾出来”的资源产生了更多的工作。根据切身体会,刘德乐认为产生工作的因素有:人的需要,人的欲望和人的想象力。他举例道,在优酷上赚钱的人的工作,过去不能称之为“工作”。比如,一些“高薪工作”包括直播自己吃面条、直播自己化妆、直播看别人打游戏等各种“奇思妙想”。

北京大学智能科学系副教授罗定生通过一项数据,也表达了对人工智能将可能带来的大量“失业”的乐观态度。最近一项实验数据显示,近十年消亡了80万个工种,新生成350万个。他完全赞同刘德乐的观点,“在‘机器人伦理白皮书’讨论中有这样几个观点,即新的工作岗位不见得是失业的人马上就可以得到的,中间或有一个过渡;新的工作岗位也不见得是容易被人工智能技术所替代的。”

博古睿瑞研究院中国中心主任宋冰

针对“‘自动驾驶上路’后,如何保障弱势群体利益”、“网络时代,数据信息‘被公开’”等重要议题,博古睿研究院中国中心主任宋冰提出对策:首先,如果有调查表明自动驾驶能够有效减少交通事故发生,从而挽救更多生命的前提下,那么,推广“无人驾驶”将是对人类、对社会的一个更大的保护。在这种新情况下,可以设置成立“国家赔偿基金”等类似产物,其资金来源于政府、社会、NGO、企业特别是从自动驾驶中盈利的企业,以保证当发生“自动驾驶”车辆碰撞甚至是导致行人身亡的情况下,弱势一方能够从容应对诉讼、治疗、赔偿等一系列费用。与此同时,也应当出台新的诉讼程序、公共政策和法律法规来规范、制约这些新出现的事物,做到有法可依。其次,在当前大数据时代,个人为了获得了互联网服务,将个人数据上传,这时的“数据”不仅只是“个人财产”了,同时具有了社会属性,可以引入“公共商品”概念加以解释。而隐私权则从最初的物理的、空间的范畴不断演变,到后来的“信息”,直至今天的“数据”。如今,隐私侵权案件激增与相关法律法规的缺失、缺位形成强烈反差,其中对隐私权的保护比较狭窄,通过网络或其他途径对数据信息、个人隐私权造成严重损害的(在本文撰写中,英国《卫报》、美国《纽约时报》等多家西方媒体报道了一场规模极大的数据泄露事件:超过5000万脸书(Facebook)用户的信息数据被一家名为剑桥分析(Cambridge Analytica)的公司泄露,并用于影响2016年的美国大选),往往找不到直接的惩治依据。因此,有必要重视将有关隐私保护应移出私法并移入公法保护领域。

“新技术、新问题,保险体系、司法鉴定、行政调解滞后等问题,将是新技术运行中很长一段时间难以改变的情况”,刘朝回应道,在美国法律界的讨论中,“两辆无人驾驶车辆在路上相撞,到底谁来承担责任?”被视为是自动驾驶将来可能遇到的法律难题之一。

张为志在总结时表示,人类原来的工作状态是成片化的,休息时间是碎片化的。但随着包括人工智能在内的智能科技的发展,我们的物质财富将越来越丰富。此时,人类的劳动开始碎片化了,反而休息时间成片化了。这样的改变,将会使我们的人生更幸福,将会是一种新的社会形态和生活体验,需要大家一起努力,共同创造。