"全球视野下的人工智能伦理论坛"成功举办

日期
2019-05-26

地点:
南京紫金山庄会议中心

已完结

"全球视野下的人工智能伦理论坛"成功举办



    过去几年人工智能(以下简称:AI)取得了很大的进展,很多领域取得突破,已经走进了日常生活。AI取得进展的同时也给社会带来伦理挑战。人类社会伦理道德成为过去几千年社会发展的稳定期,AI伦理成为未来人工智能发展的基石,很多政府、科研机构、民间机构已经发起一些讨论,制定AI伦理规则,但是这些讨论目前还处于起步的阶段,很多AI伦理的规则缺少共识或者还在讨论之中,这正是本次论坛发起的背景。

     2019年5月26日,由中国人工智能学会和北京大学博古睿研究中心合办的“全球视野下的人工智能伦理论坛”在南京紫金山庄会议中心会见厅成功举办。上午,参与本次论坛的专家围绕“人工智能伦理道德规范将促进人工智能的发展,还是阻碍人工智能的发展?”的议题展开讨论。

    CAAI理事长、中国工程院李德毅院士发表致辞,他表示,人类在劳动中智能不断地累积,演变成文字,从而得以传承,让我们有了比其他生物更先进的地方,就是传承学习。自主学习、深度学习是人工智能最重要的功能。目前中国人工智能学会已经用了一年的时间筹备脑科学和人工智能专业委员会,而今天人工智能学会又成立了人工智能伦理道德委员会,这是人工智能伦理道德领域一个重要的里程碑。中国科学技术大学机器人实验室主任、计算机学院教授陈小平为论坛致辞。

     百度大数据实验室主任浣军教授从企业安全的角度进行了《自动化建模和安全》的演讲。浣军教授认为我们是在第四次工业革命的早期阶段,现在面临的是一场波澜壮阔的工业革命,信息化、自动化将迈入到智能化的阶段,这个阶段现在做的工作就是开放普惠AI,包括两个方面。第一,如何降低建模的成本,从手工作坊阶段进入到工业化大生产阶段。第二,如何在智慧化时代保护个人,保护隐私。工业化大生产阶段,模型被产生出来,应用到社会生活的各个方面,影响社会生活的各个方面,如何在这个环境下保护个人,保护隐私是社会值得关注的问题。

    来自谷歌亚太区内容和人工智能及公共政策和政府关系主管Jake Lucchi带来分享《企业的角度:人工智能治理中的多方利益相关者》。为应对人工智能的伦理问题,谷歌公司建立了适用于整个公司所有的领域都适用的原则。针对一些特殊群体,AI有助于隐私的保护。比如谷歌公司有许多开源工具和资源,第三方合作非常频繁,通过AI评价和审查,将制定的特别的三方合作的协议和流程,确保第三方与自己流程相符的同时保护隐私。谷歌近期发布了一个白皮书,主要内容包括五点,是可诠释性、公正性、安全、人机互动、责任界定。

     国际智能技术研究院副总经理、总工程师吴桐教授,带来演讲《智能机器人伦理安全面临的挑战与技术创新》。吴桐教授就智能机器人伦理安全面临的挑战、智能机器人伦理安全与监管的核心问题、智能机器人伦理监控器创新的关键路径三个方面展开探讨。吴教授认为,功能安全和伦理的安全是两个概念,如果解决不好机器人的安全问题,或者功能安全问题,会带来很重要的伦理问题。吴教授表示,在人工智能技术和智能机器人快速发展的今天,我们要尽可能的避免陷入“科林格里奇的困境”,“机器人越自由就越需要伦理道德准则”,只有建立完善的智能机器人伦理准则,从技术上实现对智能机器人伦理准则与形成规范的监控管理,才能更好的获得智能机器人的技术红利才能让智能机器人服务人类更好的发展。

    法国阿尔图瓦大学讲师Nathalie Nevejans分享了欧盟伦理道德的进展。欧盟委员会组织成立了人工智能高级专家小组,该专家小组在2018年12月的时候向欧盟委员会递交了《可信赖的AI伦理道德准则草案》,这个草案提出了一些大的关于发展人工智能伦理方面大的想法,并于2019年1月之前向公众开放征求意见,今年4月8日,人工智能高级专家小组提交了《可信赖的AI伦理道德准则》这一文件,希望通过法律的约束,在充分利用人工智能所带来的各种益处之前仔细考虑潜在的危险会为社会带来怎样的后果。Nathalie Nevejans直言,希望通过立法能够调和促进创新或者促进经济发展和维持社会伦理两个方面,但同时这两个方面之间可能存在冲突。这样的愿景可能是难以实现的理想状况。希望《可信赖的AI伦理道德准则》能够在AI伦理领域成为一个世界的典范。

    耶鲁大学技术与伦理研究中心主任、黑斯廷斯中心高级顾问Wendell Wallach,代尔夫特理工大学教授Jeroen van den Hoven,博古睿学者、中科院自动化所类脑智能研究中心副主任、研究员曾毅与四名演讲的嘉宾共同就“人工智能伦理道德规范将促进人工智能的发展,还是阻碍人工智能的发展?”议题展开讨论。大家一致认为“创新”在人工智能发展中有着不可估量的价值。

    分论坛的下午场活动中,来自世界各地的专家、学者围绕“当前人工智能的伦理风险有多大?未来可能有多大?怎样避免出现严重的“灾难性”结果?”、“在人工智能研发和伦理建设中,有没有国情的差别?需要哪些国际协调与合作?”两个议题交换看法。

    来自荷兰代尔夫特理工大学教授Jeroen van den Hoven带来《学界声音:欧洲视角下的伦理与人工智能》的主题演讲。Jeroen van den Hoven教授在关于推动原则的执行、鼓励国际跨产业的合作、各利益相关方达成共识、技术标准达成共识几个方面进行解读。

    博古睿学者、中科院自动化所类脑智能研究中心副主任曾毅研究员在演讲中表示,AI本身对于人类并不是有害的,但是如果这个AI没有自我意识的话,更加有风险,并且能够区分自己和他人,以看待自己的方式看待他人,并且有认知共情和情感共情。如果有这样的自我,机器人会更加的安全。曾毅特别强调了传统的中国哲学在AI领域的应用——“更好的让人类协同共生,让大家可以共同协同努力,我们应该寻找共识,扩大共识,同时管控分歧,减少分歧,消除分歧,求同存异。”

    微软亚洲研究院副院长潘天佑从企业的角度对当前AI的发展进行了解读。潘院长认为现阶段最重要的是把AI民主化,让所有人都学会怎么去用AI,AI不仅只是一个黑盒子,不是说大家都应该会觉得AI是不可触及的东西,就像一个数学一样的学科,你不惧怕它,你知道怎么使用它,你跟它成为朋友,民主化AI,在这个这样话题上,让大家都理解、会用AI。对于微软和其他公司而言,应该时刻想想自律这两个字,如何执行一套原则,让它融入你每日的运作、运营,确保原则与监管。

    东京大学跨学科信息研究院教授、日本RIKEN高级智能项目中心首席研究员佐仓统,法国驻华大使馆科技参赞Pierre Lemonde,中国科学技术大学机器人实验室主任、计算机学院教授陈小平分别做专题论坛报告。

    论坛现场,来自学术界、产业界、行业组织、政府部门专家、学者分享不同观点、畅所欲言,正如CAAI理事长李德毅在早间论坛致辞中所说,论坛将成为一个重要的“里程碑”,论坛从不同的文化的角度进行剖析,加深交流、沟通与相互的理解,为未来充分的国际合作奠定了坚实的基础。