时事分析 | 创新及科技发展 | 2019-07-03 | 《经济日报》

谁为人工智能定限界?



十多年前,假如有人宣称人工智能已融入普罗大众的日常生活,其他人可能会以为自己在观看科幻电影。但今时今日,当政府也准备为网站引入人工智能和聊天机械人功能[1],金融机构亦将人工智能技术用于协助客户拟订贷款偿还方案,降低坏帐率[2],我们不得不怀疑,科幻电影的编剧中,是否潜藏了一些从未来穿越到现代的非法入境者?

人工智能或助长偏见

如果你是怀疑这些不速之客存在的一员,甚至准备向执法机构举报,你大概会更担忧日后人工智能无处不在,因为这项被寄望作出客观判断的技术,现时仍未能完全做到「大公无私」,还可能助长偏见。

以审批贷款为例,假如银行向来较少向女性和少数族裔批出贷款,当其借助人工智能作出审批决定时,演算法便可能基于以往数据,认定相关群组属高风险客群,令他们难以借贷。[3]这种可能性并非科幻片情节,科技企业亚马逊一项协助招聘的人工智能技术,便被指会对女性应征者作较低评价,存在性别偏见。[4]

除了偏见,人工智能技术也有可能被用作侵犯私隐的工具,例如从蛛丝马迹中推算出个人资讯[5],或是用来辨识身份[6],损害人们的自主性。

解决方向一:科企自我监管

当协助人类作出决定的技术存在各种潜在缺憾,除了改善技术,如何妥善规管这项技术,也逐渐备受关注。部分科技企业就透过自订原则及设立监督机制,预防人工智能技术的负面影响。其中Google于去年表示,在研究、开发产品及作商业决定时,会遵循七项原则,包括人工智能须有利于社会、避免产生或助长不平等、设计安全,以及对人类负责等等。[7]今年,Google进一步宣布设立委员会,委任行为经济学、人工智能、公共政策、数码道德等领域的教授、专家及研究人员为成员,在人脸识别及机器学习内的公平性等范畴,向公司提供意见。[8]

除Google外,微软亦为公司发展人工智能订立六大原则,并从工程、法律等部门挑选高级职员,组成委员会,以协助公司将原则融入实际运作。[9]

不过,也有声音质疑,这类被统称为人工智能伦理委员会(AI ethics board)的组织,究竟能带来多少实质改变?原因之一,是委员会成员的人选存在争议。以Google为例,过去有委员发表涉及跨性别人士的评论,便触发大批Google员工不满,当中更有数千人联署,要求取消对方的委员资格;另外,有无人机公司老板获邀加入委员会后,Google内部关注公司的人工智能发展,会否作军事用途。[10]结果Google在宣布成立委员会后大约一周,便指其无法如预期般运作,宣布解散。[11]

此外,专门提供执法技术的科技公司Axon,虽然同样有设立外部伦理委员会[12],但有多个公民组织向委员会发信,指委员会虽然由备受尊崇的学者、业界及执法机关代表等组成,但应同时邀请及咨询受Axon技术所影响的人士,包括曾被囚禁的人,以及曾遭执法人员以暴力对待的幸存者,否则委员会欠缺认受性。[13]

除人选问题,伦理委员会究竟有多少「牙力」约束科技公司,也成疑问。再以Axon的委员会为例,Axon扬言会确保委员会有机会讨论,如何以最合乎伦理的方式应用具备显著伦理风险的人工智能技术,推出相关产品前也会寻求委员会的指引。[14]

问题是,若委员会认为某项产品不应推出市面,Axon是否必须听从?还是可以「意见接受,一切照旧」?关注团体The Privacy & Sustainable Computing Lab的总监Ben Wagner认为[15],大部分科技公司订立的伦理原则,均欠缺具结构性的框架支持,并没有约束力,委员会也因为欠缺力量,无法令公司改变。[16]他批评科技公司展示对各种伦理议题的热情,只是「伦理漂白」(ethics washing),实质用意是避免政府插手监管。[17]

解决方向二:由国际组织订立原则

有人对科网公司自我约束的成效存疑,那么政府介入又是否可行?这方面,各国际组织的取态,或许可视为各地监管机构的风向仪。以欧洲联盟委员会(欧盟委员会)为例,其专家小组在今年4月发表「可信赖人工智能」(Trustworthy AI)的伦理指引[18],建议利用评核清单审视人工智能系统能否满足专家小组提出的七大要求[19],例如多元、非歧视及公平。[20]该清单会试用一段时间,以收集持份者意见,欧盟委员会会按专家小组的审视结果,再提出下一步行动。[21]

另一方面,经济合作与发展组织(经合组织)的成员国,亦在5月22日采纳了经合组织的人工智能原则(经合原则)。[22]经合原则就人工智能的公平性、透明度、安全性、问责性等问题提出建议,例如让受人工智能系统影响的人,可以挑战系统所作的决定。[23]虽然经合原则并无法律约束力[24],但由于经合组织的建议过去曾多次成为国际标准[25],故向来有高度影响力。

外行管内行成监管者挑战

国际组织的建议有影响力是一回事,其建议是否有效,却备受部分人士质疑,主要是担心这些规则「牙力」有限,而且深受科技企业影响。其中欧盟委员会的专家小组成员之一、德国约翰尼斯·古腾堡-美茵兹大学哲学教授Thomas Metzinger指,专家组52名成员中,只有4名是伦理学家,其他人士来自政治、大学、公民社会和科技业界,又批评指引短视及故意隐晦,并且是「弱化」版本。[26]

他透露,自己在小组的工作是订立「红线」,即在欧洲的「不能退让」伦理原则,但曾任职科技企业诺基亚的专家组主席,却问他能否从文件删除「不能退让」的字眼,其后更有多名成员提出强烈要求,要删除「红线」的字眼,结果令面世的指引「辣度」大减。他批评这是「伦理漂白」,透过讨论分散公众注意力,阻延规管。[27]

不难见到,无论是业界自我约束,还是国际组织订立的指引,现时都被部分人视作偏帮科技企业。当中的批评声音,固然需要处理,但在现实层面,在规管人工智能的讨论中,要减少科技企业的影响力,并不容易,因为被规管的对象──科技企业──对人工智能的认识很可能远高于规管者。

在香港,如何在善用人工智能系统之余,又能保障公众利益,已引起政府关注。个人资料私隐专员公署认为,从个人资料获取利益的中小企,应摒弃只达最低监管要求的想法,而应恪守更高的道德标准,在遵守相关法例和监管要求的同时,亦符合持份者的期望。[28]一众企业能否达到以上要求,不用等待科幻电影提供线索,我们即管拭目以待。

1 《行政长官2018年施政报告》,行政长官办公室,2018年10月10日,第105段。
2 「龙沛智 瞄准市场 以A.I. 人工智能强攻贷款市场」。取自都市日报网站:http://www.metrodaily.hk/metro_news/龙沛智-瞄准市场-以a-i-人工智能强攻贷款市场,最后更新日期2017年3月20日。
3 Richard Socher, "AI isn't dangerous, but human bias is," World Economic Forum, https://www.weforum.org/agenda/2019/01/ai-isn-t-dangerous-but-human-bias-is, last modified January 17, 2019.
4 Jeffrey Dastin, "Amazon scraps secret AI recruiting tool that showed bias against women," Reuters, October 10, 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.
5 《人工智能标准化白皮书(2018 版)》,中国电子技术标准化研究院,2018年1月,第34页。
6 "Ethics Guidelines For Trustworthy AI," High-Level Expert Group on Artificial Intelligence, April 8, 2019, p. 33.
7 Sundar Pichai, "AI at Google: our principles," Google, https://www.blog.google/technology/ai/ai-principles, last modified June 7, 2018.
8 Kent Walker, "An external advisory council to help advance the responsible development of AI," Google, https://www.blog.google/technology/ai/external-advisory-council-help-advance-responsible-development-ai, last modified March 26, 2019.
9 "The Future Computed," Microsoft, January 17, 2018, pp. 57, 73 and 74.
10 Kelsey Piper, "Exclusive: Google cancels AI ethics board in response to outcry," Vox, April 4, 2019, https://www.vox.com/future-perfect/2019/4/4/18295933/google-cancels-ai-ethics-board.
11 同8。
12 "Axon AI and Policing Technology Ethics Board," Axon, https://global.axon.com/info/ai-ethics, accessed May 30, 2019.
13 "Letter to Axon AI Ethics Board regarding Ethical Product Development and Law Enforcement," The Leadership Conference on Civil & Human Rights, https://civilrights.org/resource/axon-product-development-law-enforcement, last modified April 26, 2018.
14 同12。
15 "About," The Privacy & Sustainable Computing Lab, https://www.privacylab.at/about, accessed May 30, 2019; "People," The Privacy & Sustainable Computing Lab, https://www.privacylab.at/people-2, accessed May 30, 2019.
16 James Vincent, "The Problem With AI Ethics," The Verge, April 3, 2019, https://www.theverge.com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-charters-problem-big-tech.
17 同16。
18 "Ethics guidelines for trustworthy AI," European Commission, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, last modified April 8, 2019; "Artificial intelligence: Commission takes forward its work on ethics guidelines," European Commission, http://europa.eu/rapid/press-release_IP-19-1893_en.htm, last modified April 8, 2019.
19 同6,第8、9、14、15、24至31页。
20 同6,第18页。
21 "Ethics guidelines for trustworthy AI," European Commission, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, last modified April 8, 2019.
22 "OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019.
23 "Recommendation of the Council on Artificial Intelligence," OECD, May 22, 2019, pp. 7 and 8.
24 "OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019; "Recommendation of the Council on Artificial Intelligence," OECD, May 22, 2019, p. 12.
25 注:美国、欧洲及亚洲的多条私隐法例,便建基于经合组织的相关指引。今年6月二十国集团所采纳的以人为本人工智能原则,也参考了经合原则。资料来源:"OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019.
26 Von Thomas Metzinger, "Ethics washing made in Europe," Der Tagesspiegel, April 8, 2019, https://www.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24195496.html.
27 同26。
28 「中小企的数据伦理道德」,个人资料私隐专员公署,2019年4月,第1页。