时事分析 | 创新及科技发展 | 2019-02-08 | 《经济日报》

人工智能再进化 打开决策理据的黑盒子



人工智能渐渐渗入人类的日常生活,人脸辨识解锁手机,银行批核贷款,医院预测病人死亡风险,背后均有人工智能的影子。不过对于人工智能如何下判断,大众却一无所知,对其决策半信半疑。

为推进人工智能的应用,近年学术界和科技企业决心催生具解释能力的人工智能(Explainable Artificial Intelligence,简称XAI)。不过当此技术发展至可清晰解释其决策理据,届时为其决定负上责任的,应是人工智能自身、开发者,还是选择信纳「它/他/她」的我们?恐怕不再是科技所能解决的问题。

只知其然而不知其所以然 未获人类信任

2016年Google旗下人工智能公司DeepMind研发的人工智能系统AlphaGo ,与南韩职业九段棋士李世乭在围棋盘上历史对弈,受到全球注目。第二局的第37手AlphaGo下了被视为扭转战局的一步,被曾与AlphaGo交手的欧洲围棋冠军棋士樊麾形容为「不是人类会下的棋步(It’s not a human move)」。[1]

有赖深度学习(deep learning)技术[2],人工智能在过去十年急速发展,在脸部识别、自动驾驶等领域取得突破,AlphaGo也是其产物。不过技术有一个无法忽视的黑盒(black box)──就是旁人只能知道其决策结果,却无从稽考其背后理据[3],甚至开发它们的工程师也未必可以清楚解释。[4]

试想想,当人工智能作出似乎有违常理的行为或决策,若不附加解释让人类了解其决策是否合理,教人如何相信、接受并使用它?尤其人工智能应用已经发展至医疗、投资、施政等影响深远的领域,人们会把健康、身家交托在无法解释清楚「自己」的人工智能身上吗?

随着人工智能系统愈发影响人类的日常生活,多国政府开始关注人工智能的法律责任,并视要求人工智能解释其决定为个人权利。[5]欧盟委员会表明,演算法愈加左右大学收生、贷款审批等影响日常生活的决策,因此重视演算法透明度,并已经加以规管。[6]去年5月实施的《通用数据保障条例》(General Data Protection Regulation, 简称GDPR),其中一项便规定公民有权就任何影响他们的自动决策(automated decision-making),要求企业就决策过程所涉及的逻辑提供「有意义的讯息以及按此处理数据的重要性和预计影响」。[7]违法最高罚款额为企业全球营业额的4%,或2,000万欧元,以较高者为准。[8]

当然,严厉罚则会打击企业使用人工智能的信心,IBM曾访问5,001企业高层,有82%表示其企业正考虑使用人工智能,但监管限制和对使用数据的法律、安全、私隐忧虑,正正是令企业却步的首三个原因之二。[9]但无论如何,若要令人工智能普及,外界对其决策理据需要有更清晰的了解。

解释决定 启发人类发掘新见解

除了要符合法规,XAI还有其他作用。在德国,就有三名学者归纳出人工智能应具解释能力的三个原因:

1. 验证人工智能系统

正如上面所述,在许多应用情况中,人们不能相信无法解释的人工智能系统,故它的决策过程应是能够解释的,让应用者可以验证和判断其决策是否合理。[10]学者认为盲目使用不能解释的人工智能是不负责任的[11],在医学领域基于「Do no harm(不伤害)」原则,更不接受欠解释的人工智能。[12]

过去有预测感染肺炎患者死亡机率的人工智能系统,受到数据的「误导」,得出「哮喘患者死于肺炎的风险远比健康者为低」的错误结论。由于该系统是基于可解释的规则模型所开发,研究人员可检视数据,识别和排除误导的规则,修正系统;相反不可解释的人工智能系统,则难以知道会否有隐藏问题,为病人带来风险。[13]这个例子,正正反映验证人工智能决策过程的重要性。

2. 更容易改良AI系统

人工智能演算法并非完美,要改善首先需了解其缺点,当人能够理解人工智能的任务和其结论的理据,便能更容易找出演算法或数据中的偏见,以及分析出其弱点;亦方便比较不同人工智能模型,找出最合适使用的一个。[14]

3. 从AI身上学习

人工智能启发人类的最佳例子莫过于上文提到的AlphaGo,有份训练AlphaGo的职业棋士樊麾,与AlphaGo持续对战数月后,不但AlphaGo愈来愈厉害,樊的个人实力亦有所提升,世界排名大幅上升。[15]

人类处理数据的能力有限,但人工智能系统乃受上百万的真实数据训练而成,或可从数据中观察到人类无法窥见的法则。而当我们使用可解释的人工智能系统,就可尝试从其「提炼」得出的知识,发掘新的见解,向来从模型中得到讯息的物理学、化学和生物学尤其受惠,或可启发这群科学家识别出隐藏的自然规律。[16]

解释能力与准确度 暂仍不可兼得

不过要求人工智能具解释能力,便要有所牺牲,因为以现今技术,人工智能的解释能力与准确度仍是鱼与熊掌,不可兼得。基于神经网络(Neural Nets)模型、深度学习技术生成的人工智能演算法,虽然准确度在众多技术之中最高,惟可解释性最低;相反,基于决策树(Decision Tree)模式生成的人工智能,可利用图解说明整个决策过程,但准确度较低。[17]

...

事实上,对用家来说,人工智能的准确度与解释能力,两者均不可或缺,外国学术界与科技企业正朝此方向努力。

IBM 去年推出新的云计算软件,可以自动检测人工智能的偏差,并用显浅易懂的用语解释人工智能如何做出决策,指出哪些因素做决定时考虑权重最大,每个因素的可信程度和原因。[18]该软件还可以因应客户或法规需要,追踪数据轨迹、系统准确度、表现和公平性的纪录。[19]

美国国防部属下国防高等研究计划署(Defense Advanced Research Projects Agency),于2016年已宣布开展「可解释人工智能研究计划」(「XAI 计划」),目标是开发或改良机器学习的技术,生成XAI模型,同时保持高预测准确度。模型将可解释自身原理、优缺点、和未来的行为表现,将来可应用于国防和商业。[20]

「XAI计划」经理David Gunning接受传媒访问时透露,项目团队已经略有成果,有份参与「XAI计划」的波士顿大学研究人员,正开发专为不明模型人工智能系统解释的方法,可透过测试输入的数据,制作热图(heatmaps),找出当人工智能做决定时,哪些数据有贡献。[21]

「电子人」诞生 法律责任由谁负?

需要进一步讨论的是,假如技术成熟的XAI诞生,由其决策衍生的法律责任,应该由谁承担?

欧洲议会2017年通过《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)的决议,当中提出一项极富争议性的建议:「长远为机械人创造法律地位,透过确立电子人(electronic persons)身份,使最精密机械人承担它们可能造成的任何损害,以及可能应用电子人格于机械人自行作决定或与第三方互动的情况。」[22]

起草决议的欧洲议会议员Mady Delvaux解释,由于精密的自主和自我学习机械人有能力作决定,而相关决定将无法追溯至人类代理人,所以每当发生事故,要确定责任将会愈来愈复杂,她提出建立「电子人」法律地位,配合强制机械人保险计划,是为了在无法确立人类的全部责任时,为受害者提供赔偿。[23]

然而这项建议遭到285位人工智能及机械人、法律、医学及伦理专家联署谴责,指为自主、不可预测和自我学习的机械人创造「电子人」的法律地位,是「荒谬和不实际」。专家们批评议会错误认定人类社会无法判断机械人造成损害的责任,从道德和法律角度来看,创造法律人格是「不合适」;而从技术角度出发,亦是过于高估机械人的实际能力、肤浅理解其不可预测和自我学习的能力。[24]

假如发生事故,如何界定人工智能系统、开发商和用家法律责任,未来仍需经历长时间的讨论,唯一可以肯定的是,开发具解释能力人工智能的脚步不会停止,人工智能的「黑盒」将被打开。

1 Cade Metz, “The Sadness and Beauty of Watching Google's AI Play Go”, Wired, March 11, 2016, https://www.wired.com/2016/03/sadness-beauty-watching-googles-ai-play-go/.
2 注:深度学习是机器学习的分支,是一种以人工神经网路为架构,对资料进行表征学习的演算法;资料来源:「深度学习」。取自维基百科网站:https://zh.wikipedia.org/wiki/深度学习,查询日期2019年1月17日。
3 Ben Dickson, “Inside DARPA’s effort to create explainable artificial intelligence,” TechTalks, https://bdtechtalks.com/2019/01/10/darpa-xai-explainable-artificial-intelligence/, last modified January 10, 2019.
4 David Auerbach, "The Code We Can't Control," Slate, January 14, 2015, http://www.slate.com/articles/technology/bitwise/2015/01/black_box_society_by_frank_pasquale_a_chilling_vision_of_how_big_data_has.html.
5 Wojciech Samek, Thomas Wiegand and Klaus-Robert Müller, “Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models,” ITU Journal: ICT Discoveries Special Issue 1(2017), p. 3.
6“A European approach on Artificial Intelligence”, European Commission, http://europa.eu/rapid/press-release_MEMO-18-3363_en.htm, last modified April 25, 2018.
7 “Regulation (EU) 2016/679 of the European Parliament and of the Council”, European Union, May 4, 2016, p. 43.
8 同7,第83页。
9 “Shifting toward Enterprise-grade AI”, IBM Institute for Business Value, September 2018, pp. 3, 10 and 18.
10 同5,第2页。
11 同5,第2页。
12 Rich Caruana et al., "Intelligible models for healthcare: Predicting pneumonia risk and hospital 30-day readmission", In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (2015), pp. 1,721-1,730.
13 同12。
14 同5,第2至3页。
15 同1。
16 同5,第3页。
17 David Gunning, "Explainable artificial intelligence Research at DARPA," Defense Advanced Research Projects Agency (DARPA), 2017, p. 19; Chris Oxborough et al, “Explainable AI Driving business value through greater understanding,” PricewaterhouseCoopers UK, 2018, p.10 and 11.
18 Ruchir Puri, “It’s time to start breaking open the black box of AI,” IBM, https://www.ibm.com/blogs/watson/2018/09/trust-transparency-ai/, last modified September 19, 2018; “IBM Takes Major Step in Breaking Open the Black Box of AI”, IBM, https://newsroom.ibm.com/2018-09-19-IBM-Takes-Major-Step-in-Breaking-Open-the-Black-Box-of-AI, last modified September 19, 2018.
19 “IBM Takes Major Step in Breaking Open the Black Box of AI”, IBM, https://newsroom.ibm.com/2018-09-19-IBM-Takes-Major-Step-in-Breaking-Open-the-Black-Box-of-AI, last modified September 19, 2018.
20 David Gunning, “Explainable Artificial Intelligence (XAI)”, Defense Advanced Research Projects Agency, https://www.darpa.mil/program/explainable-artificial-intelligence, accessed January 16, 2019.
21 同3。
22 “Report with recommendations to the Commission on Civil Law Rules on Robotics”, European Commission, January 27, 2017, p. 18.
23 “Open Letter to the European Commission Artificial Intelligence and Robotics”, Robotics-openletter, http://www.robotics-openletter.eu/, accessed January 16, 2019.
24 同23。