時事分析 | 創新及科技發展 | 2019-07-03 | 《經濟日報》

誰為人工智能定限界?



十多年前,假如有人宣稱人工智能已融入普羅大眾的日常生活,其他人可能會以為自己在觀看科幻電影。但今時今日,當政府也準備為網站引入人工智能和聊天機械人功能[1],金融機構亦將人工智能技術用於協助客戶擬訂貸款償還方案,降低壞帳率[2],我們不得不懷疑,科幻電影的編劇中,是否潛藏了一些從未來穿越到現代的非法入境者?

人工智能或助長偏見

如果你是懷疑這些不速之客存在的一員,甚至準備向執法機構舉報,你大概會更擔憂日後人工智能無處不在,因為這項被寄望作出客觀判斷的技術,現時仍未能完全做到「大公無私」,還可能助長偏見。

以審批貸款為例,假如銀行向來較少向女性和少數族裔批出貸款,當其借助人工智能作出審批決定時,演算法便可能基於以往數據,認定相關群組屬高風險客群,令他們難以借貸。[3]這種可能性並非科幻片情節,科技企業亞馬遜一項協助招聘的人工智能技術,便被指會對女性應徵者作較低評價,存在性別偏見。[4]

除了偏見,人工智能技術也有可能被用作侵犯私隱的工具,例如從蛛絲馬跡中推算出個人資訊[5],或是用來辨識身份[6],損害人們的自主性。

解決方向一:科企自我監管

當協助人類作出決定的技術存在各種潛在缺憾,除了改善技術,如何妥善規管這項技術,也逐漸備受關注。部分科技企業就透過自訂原則及設立監督機制,預防人工智能技術的負面影響。其中Google於去年表示,在研究、開發產品及作商業決定時,會遵循七項原則,包括人工智能須有利於社會、避免產生或助長不平等、設計安全,以及對人類負責等等。[7]今年,Google進一步宣布設立委員會,委任行為經濟學、人工智能、公共政策、數碼道德等領域的教授、專家及研究人員為成員,在人臉識別及機器學習內的公平性等範疇,向公司提供意見。[8]

除Google外,微軟亦為公司發展人工智能訂立六大原則,並從工程、法律等部門挑選高級職員,組成委員會,以協助公司將原則融入實際運作。[9]

不過,也有聲音質疑,這類被統稱為人工智能倫理委員會(AI ethics board)的組織,究竟能帶來多少實質改變?原因之一,是委員會成員的人選存在爭議。以Google為例,過去有委員發表涉及跨性別人士的評論,便觸發大批Google員工不滿,當中更有數千人聯署,要求取消對方的委員資格;另外,有無人機公司老闆獲邀加入委員會後,Google內部關注公司的人工智能發展,會否作軍事用途。[10]結果Google在宣布成立委員會後大約一周,便指其無法如預期般運作,宣布解散。[11]

此外,專門提供執法技術的科技公司Axon,雖然同樣有設立外部倫理委員會[12],但有多個公民組織向委員會發信,指委員會雖然由備受尊崇的學者、業界及執法機關代表等組成,但應同時邀請及諮詢受Axon技術所影響的人士,包括曾被囚禁的人,以及曾遭執法人員以暴力對待的倖存者,否則委員會欠缺認受性。[13]

除人選問題,倫理委員會究竟有多少「牙力」約束科技公司,也成疑問。再以Axon的委員會為例,Axon揚言會確保委員會有機會討論,如何以最合乎倫理的方式應用具備顯著倫理風險的人工智能技術,推出相關產品前也會尋求委員會的指引。[14]

問題是,若委員會認為某項產品不應推出市面,Axon是否必須聽從?還是可以「意見接受,一切照舊」?關注團體The Privacy & Sustainable Computing Lab的總監Ben Wagner認為[15],大部分科技公司訂立的倫理原則,均欠缺具結構性的框架支持,並沒有約束力,委員會也因為欠缺力量,無法令公司改變。[16]他批評科技公司展示對各種倫理議題的熱情,只是「倫理漂白」(ethics washing),實質用意是避免政府插手監管。[17]

解決方向二:由國際組織訂立原則

有人對科網公司自我約束的成效存疑,那麼政府介入又是否可行?這方面,各國際組織的取態,或許可視為各地監管機構的風向儀。以歐洲聯盟委員會(歐盟委員會)為例,其專家小組在今年4月發表「可信賴人工智能」(Trustworthy AI)的倫理指引[18],建議利用評核清單審視人工智能系統能否滿足專家小組提出的七大要求[19],例如多元、非歧視及公平。[20]該清單會試用一段時間,以收集持份者意見,歐盟委員會會按專家小組的審視結果,再提出下一步行動。[21]

另一方面,經濟合作與發展組織(經合組織)的成員國,亦在5月22日採納了經合組織的人工智能原則(經合原則)。[22]經合原則就人工智能的公平性、透明度、安全性、問責性等問題提出建議,例如讓受人工智能系統影響的人,可以挑戰系統所作的決定。[23]雖然經合原則並無法律約束力[24],但由於經合組織的建議過去曾多次成為國際標準[25],故向來有高度影響力。

外行管內行成監管者挑戰

國際組織的建議有影響力是一回事,其建議是否有效,卻備受部分人士質疑,主要是擔心這些規則「牙力」有限,而且深受科技企業影響。其中歐盟委員會的專家小組成員之一、德國約翰尼斯·古騰堡-美茵茲大學哲學教授Thomas Metzinger指,專家組52名成員中,只有4名是倫理學家,其他人士來自政治、大學、公民社會和科技業界,又批評指引短視及故意隱晦,並且是「弱化」版本。[26]

他透露,自己在小組的工作是訂立「紅線」,即在歐洲的「不能退讓」倫理原則,但曾任職科技企業諾基亞的專家組主席,卻問他能否從文件刪除「不能退讓」的字眼,其後更有多名成員提出強烈要求,要刪除「紅線」的字眼,結果令面世的指引「辣度」大減。他批評這是「倫理漂白」,透過討論分散公眾注意力,阻延規管。[27]

不難見到,無論是業界自我約束,還是國際組織訂立的指引,現時都被部分人視作偏幫科技企業。當中的批評聲音,固然需要處理,但在現實層面,在規管人工智能的討論中,要減少科技企業的影響力,並不容易,因為被規管的對象──科技企業──對人工智能的認識很可能遠高於規管者。

在香港,如何在善用人工智能系統之餘,又能保障公眾利益,已引起政府關注。個人資料私隱專員公署認為,從個人資料獲取利益的中小企,應摒棄只達最低監管要求的想法,而應恪守更高的道德標準,在遵守相關法例和監管要求的同時,亦符合持份者的期望。[28]一眾企業能否達到以上要求,不用等待科幻電影提供線索,我們即管拭目以待。

1 《行政長官2018年施政報告》,行政長官辦公室,2018年10月10日,第105段。
2 「龍沛智 瞄準市場 以A.I. 人工智能強攻貸款市場」。取自都市日報網站:http://www.metrodaily.hk/metro_news/龍沛智-瞄準市場-以a-i-人工智能強攻貸款市場,最後更新日期2017年3月20日。
3 Richard Socher, "AI isn't dangerous, but human bias is," World Economic Forum, https://www.weforum.org/agenda/2019/01/ai-isn-t-dangerous-but-human-bias-is, last modified January 17, 2019.
4 Jeffrey Dastin, "Amazon scraps secret AI recruiting tool that showed bias against women," Reuters, October 10, 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.
5 《人工智能標準化白皮書(2018 版)》,中國電子技術標準化研究院,2018年1月,第34頁。
6 "Ethics Guidelines For Trustworthy AI," High-Level Expert Group on Artificial Intelligence, April 8, 2019, p. 33.
7 Sundar Pichai, "AI at Google: our principles," Google, https://www.blog.google/technology/ai/ai-principles, last modified June 7, 2018.
8 Kent Walker, "An external advisory council to help advance the responsible development of AI," Google, https://www.blog.google/technology/ai/external-advisory-council-help-advance-responsible-development-ai, last modified March 26, 2019.
9 "The Future Computed," Microsoft, January 17, 2018, pp. 57, 73 and 74.
10 Kelsey Piper, "Exclusive: Google cancels AI ethics board in response to outcry," Vox, April 4, 2019, https://www.vox.com/future-perfect/2019/4/4/18295933/google-cancels-ai-ethics-board.
11 同8。
12 "Axon AI and Policing Technology Ethics Board," Axon, https://global.axon.com/info/ai-ethics, accessed May 30, 2019.
13 "Letter to Axon AI Ethics Board regarding Ethical Product Development and Law Enforcement," The Leadership Conference on Civil & Human Rights, https://civilrights.org/resource/axon-product-development-law-enforcement, last modified April 26, 2018.
14 同12。
15 "About," The Privacy & Sustainable Computing Lab, https://www.privacylab.at/about, accessed May 30, 2019; "People," The Privacy & Sustainable Computing Lab, https://www.privacylab.at/people-2, accessed May 30, 2019.
16 James Vincent, "The Problem With AI Ethics," The Verge, April 3, 2019, https://www.theverge.com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-charters-problem-big-tech.
17 同16。
18 "Ethics guidelines for trustworthy AI," European Commission, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, last modified April 8, 2019; "Artificial intelligence: Commission takes forward its work on ethics guidelines," European Commission, http://europa.eu/rapid/press-release_IP-19-1893_en.htm, last modified April 8, 2019.
19 同6,第8、9、14、15、24至31頁。
20 同6,第18頁。
21 "Ethics guidelines for trustworthy AI," European Commission, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, last modified April 8, 2019.
22 "OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019.
23 "Recommendation of the Council on Artificial Intelligence," OECD, May 22, 2019, pp. 7 and 8.
24 "OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019; "Recommendation of the Council on Artificial Intelligence," OECD, May 22, 2019, p. 12.
25 註:美國、歐洲及亞洲的多條私隱法例,便建基於經合組織的相關指引。今年6月二十國集團所採納的以人為本人工智能原則,也參考了經合原則。資料來源:"OECD Principles on AI," OECD, https://www.oecd.org/going-digital/ai/principles, accessed June 11, 2019.
26 Von Thomas Metzinger, "Ethics washing made in Europe," Der Tagesspiegel, April 8, 2019, https://www.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24195496.html.
27 同26。
28 「中小企的數據倫理道德」,個人資料私隱專員公署,2019年4月,第1頁。