為了信任AI系統的輸出必須能夠理解其過(guò)程并了解它是如何得出結論的

2019-07-26 16:43:48    來(lái)源:    作者:

你能相信AI嗎?您是否應毫無(wú)疑問(wèn)地接受其調查結果為客觀(guān)有效?問(wèn)題是即使質(zhì)疑AI本身也不會(huì )產(chǎn)生明確的答案。

AI系統通常像黑匣子一樣操作:輸入數據,輸出數據,但轉換數據的過(guò)程是個(gè)謎。這造成了雙重問(wèn)題。一個(gè)是不清楚哪種算法的性能最可靠。另一個(gè)是看似客觀(guān)的結果可能會(huì )被編程系統的人的價(jià)值觀(guān)和偏見(jiàn)所扭曲。這就是為什么需要透明的系統使用的虛擬思維過(guò)程,或“可解釋的AI”。

對于受GDPR管轄的任何人來(lái)說(shuō),道德要求已經(jīng)成為合法的,這不僅會(huì )影響歐盟的企業(yè),也會(huì )影響與那里的人或組織打交道的企業(yè)。它包含了一些關(guān)于數據保護的規定,這些規定擴展到歐盟公民“不受單獨自動(dòng)決策制約的權利,但在某些情況下除外”和“有權獲得有關(guān)決策所涉邏輯的有意義信息的權利” “。

換句話(huà)說(shuō),僅僅說(shuō)“算法拒絕了你的申請”已經(jīng)不夠了。有一個(gè)法律授權可以解釋導致結論對人們生活產(chǎn)生影響的思路。

有偏見(jiàn)的結果

一些人對算法決策提出的一個(gè)擔憂(yōu)是,即使在進(jìn)行客觀(guān)推理時(shí),他們也可能會(huì )加劇偏見(jiàn)。這就是Cathy O'Neil在“數學(xué)毀滅武器:大數據如何增加不平等和威脅民主”中所提出的論點(diǎn)的關(guān)鍵。與大數據相關(guān)的客觀(guān)性外觀(guān)使其在實(shí)際應用中如此有害加強偏見(jiàn)。

她稱(chēng)之為“數學(xué)破壞”的是“強化障礙的模型的結果,通過(guò)將其視為不太值得信用,教育,工作機會(huì ),假釋等等來(lái)阻止特定人口群體處于不利地位”。

她并不是唯一一個(gè)發(fā)現算法偏見(jiàn)的人。2016年,Pro Publica分享了他們的研究結果,即算法預測黑人的再犯率高于白人,這一因素在相同類(lèi)型的犯罪中被轉化為不同的監禁。2017年“衛報”文章也將偏見(jiàn)擴展到性別。

問(wèn)題是這些系統的編程會(huì )帶來(lái)深遠的影響。在電話(huà)采訪(fǎng)中,Collibra的聯(lián)合創(chuàng )始人兼首席技術(shù)官Stijn Christiaens 解釋說(shuō),AI實(shí)現了“自動(dòng)決策”,每秒可以超過(guò)1萬(wàn)個(gè)決策。

這意味著(zhù)制定錯誤決策的系統將比任何人都更快地制造更多的系統??死锼沟侔菜拐f(shuō),如果該制度存在偏見(jiàn),那么大量的決定可能“對某些人群造成損害”,其后果非常嚴重且普遍存在。

算法的關(guān)注與喂養

當然,數據不完整或不良導致錯誤。這就是一些專(zhuān)家在上面引用的Guardian文章中引用偏倚算法結果的原因。牛津大學(xué)的Sandra Wachter總結如下:“世界存在偏見(jiàn),歷史數據存在偏差,因此我們收到偏頗的結果并不奇怪。”

同樣,克里斯蒂安斯說(shuō),“因為它是基于現實(shí)世界的觀(guān)察,”AI“觀(guān)察我們的偏見(jiàn),并產(chǎn)生性別歧視或種族主義的輸出。”將他自己的術(shù)語(yǔ)應用于俗稱(chēng)垃圾,垃圾輸出(GIGO) ),他說(shuō)問(wèn)題可能是構成訓練數據的 “食物”,因為它本身是錯誤的,不完整的或有偏見(jiàn)的。

種族主義和性別歧視的結果可以通過(guò)不能充分代表人口差異的數據進(jìn)入系統。他提出了在會(huì )議上利用發(fā)言人提供培訓數據的案例,其中婦女的代表比例可能只有20%。當訓練這種傾斜表示時(shí),算法將具有內置偏差。

AI Alchemy

AI偏差問(wèn)題并不總是由于數據饋送,而在于它的決策方式。這些行動(dòng)之謎讓Ali Rahimi和Ben Recht感到震驚,他們將它與煉金術(shù)相提并論。

雖然煉金術(shù)可能占有一席之地,但并不是人們想要回答他們關(guān)于自動(dòng)決策的問(wèn)題的后果。正如Rahimi和Recht所說(shuō):“但我們現在正在建立管理醫療保健和參與民事辯論的制度。我想生活在這樣一個(gè)世界,這個(gè)世界的系統是建立在嚴謹,可靠,可驗證的知識上,而不是煉金術(shù)。“

超越黑匣子:發(fā)現決定決策的因素

這就是為什么有些人正在尋求一種方法來(lái)將透明度引入人工智能系統的思維過(guò)程,讓它解釋為什么它得出了它所做的結論。各地都在努力。

雖然這是朝著(zhù)正確方向邁出的一步,但解決方案并不完美。因此研究仍在繼續,并且根據GDPR,與歐盟相關(guān)的人員對實(shí)現可解釋的人工智能特別感興趣。

布魯塞爾大學(xué)的人工智能實(shí)驗室是Christiaens公司成立的機構,也是致力于這種研究的地方之一。他說(shuō),實(shí)驗室已經(jīng)找到了處理圖像識別的方法,并且“網(wǎng)絡(luò )在語(yǔ)言上解釋了已經(jīng)看到的內容以及為什么”它得出的結論是關(guān)于圖片中的內容。

“算法總是以同樣的方式工作,”Christiaens解釋道。“輸入數據被轉換為特征。”在A(yíng)I實(shí)驗室,他們可以“深入了解并查看決策樹(shù)中發(fā)生了什么。”在此基礎上,可以“查看所遵循的路徑”看看哪里出了問(wèn)題,然后“調整并重新訓練”。

IBM還將其注意力集中在黑匣子問(wèn)題上,它最近宣布推出一項軟件服務(wù),即使在系統運行IBM云的情況下,它也會(huì )考慮到AI的決定。除了及時(shí)警報外,它還提供了抵消有偏見(jiàn)結果所需數據的建議。

除了云服務(wù)之外,IBM還為正在構建機器學(xué)習系統的公司提供咨詢(xún),以試圖在未來(lái)減少有偏見(jiàn)的結果。也許其他人工智能專(zhuān)家也會(huì )參與咨詢(xún),以幫助建立更好的系統,并檢查可編程的偏差。

我們必須記住,人工智能系統與設置它們的人類(lèi)一樣容易出錯,因此沒(méi)有人能夠對決策進(jìn)行說(shuō)明。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。