時事分析 | 創新及科技發展 | 2019-02-08 | 《經濟日報》

人工智能再進化 打開決策理據的黑盒子



人工智能漸漸滲入人類的日常生活,人臉辨識解鎖手機,銀行批核貸款,醫院預測病人死亡風險,背後均有人工智能的影子。不過對於人工智能如何下判斷,大眾卻一無所知,對其決策半信半疑。

為推進人工智能的應用,近年學術界和科技企業決心催生具解釋能力的人工智能(Explainable Artificial Intelligence,簡稱XAI)。不過當此技術發展至可清晰解釋其決策理據,屆時為其決定負上責任的,應是人工智能自身、開發者,還是選擇信納「它/他/她」的我們?恐怕不再是科技所能解決的問題。

只知其然而不知其所以然 未獲人類信任

2016年Google旗下人工智能公司DeepMind研發的人工智能系統AlphaGo ,與南韓職業九段棋士李世乭在圍棋盤上歷史對弈,受到全球注目。第二局的第37手AlphaGo下了被視為扭轉戰局的一步,被曾與AlphaGo交手的歐洲圍棋冠軍棋士樊麾形容為「不是人類會下的棋步(It’s not a human move)」。[1]

有賴深度學習(deep learning)技術[2],人工智能在過去十年急速發展,在臉部識別、自動駕駛等領域取得突破,AlphaGo也是其產物。不過技術有一個無法忽視的黑盒(black box)──就是旁人只能知道其決策結果,卻無從稽考其背後理據[3],甚至開發它們的工程師也未必可以清楚解釋。[4]

試想想,當人工智能作出似乎有違常理的行為或決策,若不附加解釋讓人類了解其決策是否合理,教人如何相信、接受並使用它?尤其人工智能應用已經發展至醫療、投資、施政等影響深遠的領域,人們會把健康、身家交託在無法解釋清楚「自己」的人工智能身上嗎?

隨着人工智能系統愈發影響人類的日常生活,多國政府開始關注人工智能的法律責任,並視要求人工智能解釋其決定為個人權利。[5]歐盟委員會表明,演算法愈加左右大學收生、貸款審批等影響日常生活的決策,因此重視演算法透明度,並已經加以規管。[6]去年5月實施的《通用數據保障條例》(General Data Protection Regulation, 簡稱GDPR),其中一項便規定公民有權就任何影響他們的自動決策(automated decision-making),要求企業就決策過程所涉及的邏輯提供「有意義的訊息以及按此處理數據的重要性和預計影響」。[7]違法最高罰款額為企業全球營業額的4%,或2,000萬歐元,以較高者為準。[8]

當然,嚴厲罰則會打擊企業使用人工智能的信心,IBM曾訪問5,001企業高層,有82%表示其企業正考慮使用人工智能,但監管限制和對使用數據的法律、安全、私隱憂慮,正正是令企業卻步的首三個原因之二。[9]但無論如何,若要令人工智能普及,外界對其決策理據需要有更清晰的了解。

解釋決定 啟發人類發掘新見解

除了要符合法規,XAI還有其他作用。在德國,就有三名學者歸納出人工智能應具解釋能力的三個原因:

1. 驗證人工智能系統

正如上面所述,在許多應用情況中,人們不能相信無法解釋的人工智能系統,故它的決策過程應是能夠解釋的,讓應用者可以驗證和判斷其決策是否合理。[10]學者認為盲目使用不能解釋的人工智能是不負責任的[11],在醫學領域基於「Do no harm(不傷害)」原則,更不接受欠解釋的人工智能。[12]

過去有預測感染肺炎患者死亡機率的人工智能系統,受到數據的「誤導」,得出「哮喘患者死於肺炎的風險遠比健康者為低」的錯誤結論。由於該系統是基於可解釋的規則模型所開發,研究人員可檢視數據,識別和排除誤導的規則,修正系統;相反不可解釋的人工智能系統,則難以知道會否有隱藏問題,為病人帶來風險。[13]這個例子,正正反映驗證人工智能決策過程的重要性。

2. 更容易改良AI系統

人工智能演算法並非完美,要改善首先需了解其缺點,當人能夠理解人工智能的任務和其結論的理據,便能更容易找出演算法或數據中的偏見,以及分析出其弱點;亦方便比較不同人工智能模型,找出最合適使用的一個。[14]

3. 從AI身上學習

人工智能啟發人類的最佳例子莫過於上文提到的AlphaGo,有份訓練AlphaGo的職業棋士樊麾,與AlphaGo持續對戰數月後,不但AlphaGo愈來愈厲害,樊的個人實力亦有所提升,世界排名大幅上升。[15]

人類處理數據的能力有限,但人工智能系統乃受上百萬的真實數據訓練而成,或可從數據中觀察到人類無法窺見的法則。而當我們使用可解釋的人工智能系統,就可嘗試從其「提煉」得出的知識,發掘新的見解,向來從模型中得到訊息的物理學、化學和生物學尤其受惠,或可啟發這群科學家識別出隱藏的自然規律。[16]

解釋能力與準確度 暫仍不可兼得

不過要求人工智能具解釋能力,便要有所犧牲,因為以現今技術,人工智能的解釋能力與準確度仍是魚與熊掌,不可兼得。基於神經網絡(Neural Nets)模型、深度學習技術生成的人工智能演算法,雖然準確度在眾多技術之中最高,惟可解釋性最低;相反,基於決策樹(Decision Tree)模式生成的人工智能,可利用圖解說明整個決策過程,但準確度較低。[17]

...

事實上,對用家來說,人工智能的準確度與解釋能力,兩者均不可或缺,外國學術界與科技企業正朝此方向努力。

IBM 去年推出新的雲計算軟件,可以自動檢測人工智能的偏差,並用顯淺易懂的用語解釋人工智能如何做出決策,指出哪些因素做決定時考慮權重最大,每個因素的可信程度和原因。[18]該軟件還可以因應客戶或法規需要,追蹤數據軌跡、系統準確度、表現和公平性的紀錄。[19]

美國國防部屬下國防高等研究計劃署(Defense Advanced Research Projects Agency),於2016年已宣布開展「可解釋人工智能研究計劃」(「XAI 計劃」),目標是開發或改良機器學習的技術,生成XAI模型,同時保持高預測準確度。模型將可解釋自身原理、優缺點、和未來的行為表現,將來可應用於國防和商業。[20]

「XAI計劃」經理David Gunning接受傳媒訪問時透露,項目團隊已經略有成果,有份參與「XAI計劃」的波士頓大學研究人員,正開發專為不明模型人工智能系統解釋的方法,可透過測試輸入的數據,製作熱圖(heatmaps),找出當人工智能做決定時,哪些數據有貢獻。[21]

「電子人」誕生 法律責任由誰負?

需要進一步討論的是,假如技術成熟的XAI誕生,由其決策衍生的法律責任,應該由誰承擔?

歐洲議會2017年通過《歐盟機器人民事法律規則》(European Civil Law Rules in Robotics)的決議,當中提出一項極富爭議性的建議:「長遠為機械人創造法律地位,透過確立電子人(electronic persons)身份,使最精密機械人承擔它們可能造成的任何損害,以及可能應用電子人格於機械人自行作決定或與第三方互動的情況。」[22]

起草決議的歐洲議會議員Mady Delvaux解釋,由於精密的自主和自我學習機械人有能力作決定,而相關決定將無法追溯至人類代理人,所以每當發生事故,要確定責任將會愈來愈複雜,她提出建立「電子人」法律地位,配合強制機械人保險計劃,是為了在無法確立人類的全部責任時,為受害者提供賠償。[23]

然而這項建議遭到285位人工智能及機械人、法律、醫學及倫理專家聯署譴責,指為自主、不可預測和自我學習的機械人創造「電子人」的法律地位,是「荒謬和不實際」。專家們批評議會錯誤認定人類社會無法判斷機械人造成損害的責任,從道德和法律角度來看,創造法律人格是「不合適」;而從技術角度出發,亦是過於高估機械人的實際能力、膚淺理解其不可預測和自我學習的能力。[24]

假如發生事故,如何界定人工智能系統、開發商和用家法律責任,未來仍需經歷長時間的討論,唯一可以肯定的是,開發具解釋能力人工智能的腳步不會停止,人工智能的「黑盒」將被打開。

1 Cade Metz, “The Sadness and Beauty of Watching Google's AI Play Go”, Wired, March 11, 2016, https://www.wired.com/2016/03/sadness-beauty-watching-googles-ai-play-go/.
2 註:深度學習是機器學習的分支,是一種以人工神經網路為架構,對資料進行表徵學習的演算法;資料來源:「深度學習」。取自維基百科網站:https://zh.wikipedia.org/wiki/深度学习,查詢日期2019年1月17日。
3 Ben Dickson, “Inside DARPA’s effort to create explainable artificial intelligence,” TechTalks, https://bdtechtalks.com/2019/01/10/darpa-xai-explainable-artificial-intelligence/, last modified January 10, 2019.
4 David Auerbach, "The Code We Can't Control," Slate, January 14, 2015, http://www.slate.com/articles/technology/bitwise/2015/01/black_box_society_by_frank_pasquale_a_chilling_vision_of_how_big_data_has.html.
5 Wojciech Samek, Thomas Wiegand and Klaus-Robert Müller, “Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models,” ITU Journal: ICT Discoveries Special Issue 1(2017), p. 3.
6“A European approach on Artificial Intelligence”, European Commission, http://europa.eu/rapid/press-release_MEMO-18-3363_en.htm, last modified April 25, 2018.
7 “Regulation (EU) 2016/679 of the European Parliament and of the Council”, European Union, May 4, 2016, p. 43.
8 同7,第83頁。
9 “Shifting toward Enterprise-grade AI”, IBM Institute for Business Value, September 2018, pp. 3, 10 and 18.
10 同5,第2頁。
11 同5,第2頁。
12 Rich Caruana et al., "Intelligible models for healthcare: Predicting pneumonia risk and hospital 30-day readmission", In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (2015), pp. 1,721-1,730.
13 同12。
14 同5,第2至3頁。
15 同1。
16 同5,第3頁。
17 David Gunning, "Explainable artificial intelligence Research at DARPA," Defense Advanced Research Projects Agency (DARPA), 2017, p. 19; Chris Oxborough et al, “Explainable AI Driving business value through greater understanding,” PricewaterhouseCoopers UK, 2018, pp.10 and 11.
18 Ruchir Puri, “It’s time to start breaking open the black box of AI,” IBM, https://www.ibm.com/blogs/watson/2018/09/trust-transparency-ai/, last modified September 19, 2018; “IBM Takes Major Step in Breaking Open the Black Box of AI”, IBM, https://newsroom.ibm.com/2018-09-19-IBM-Takes-Major-Step-in-Breaking-Open-the-Black-Box-of-AI, last modified September 19, 2018.
19 “IBM Takes Major Step in Breaking Open the Black Box of AI”, IBM, https://newsroom.ibm.com/2018-09-19-IBM-Takes-Major-Step-in-Breaking-Open-the-Black-Box-of-AI, last modified September 19, 2018.
20 David Gunning, “Explainable Artificial Intelligence (XAI)”, Defense Advanced Research Projects Agency, https://www.darpa.mil/program/explainable-artificial-intelligence, accessed January 16, 2019.
21 同3。
22 “Report with recommendations to the Commission on Civil Law Rules on Robotics”, European Commission, January 27, 2017, p. 18.
23 “Open Letter to the European Commission Artificial Intelligence and Robotics”, Robotics-openletter, http://www.robotics-openletter.eu/, accessed January 16, 2019.
24 同23。