人權與人工智能倫理 為何道德不能被UDHR取代

2019-08-01 09:53:12    來(lái)源:    作者:

在越來(lái)越受歡迎的嘗試使科技世界符合道德的過(guò)程中,出現了一種新的想法:用“人權”取代“道德”。由于似乎沒(méi)有人知道“道德”是什么意思,所以每個(gè)人都在尋找一個(gè)明確定義的框架,如果它符合單頁(yè)一頁(yè)文件就更好了:“ 世界人權宣言”(世界人權宣言)。不幸的是,像許多快捷方式一樣,這個(gè)也沒(méi)有解決問(wèn)題。

首先,我要總結一下使用UDHR解決人工智能道德問(wèn)題的論點(diǎn)。為了說(shuō)明這個(gè)論點(diǎn),我將利用這篇博客文章及其基于哈佛法學(xué)院的報告:“ 人工智能與人權:機遇與風(fēng)險“這是基本論點(diǎn):UDHR為我們提供了一個(gè)(1)指導框架,它是(2)普遍認同的,并導致(3)具有法律約束力的規則 - 與”道德“相對立,即(1)主觀(guān)偏好(“道德指南針”,如果你愿意),(2)廣泛爭議,(3)只有支持它的善意強。因此,雖然吸引道德規范來(lái)解決人工智能中的規范性問(wèn)題,但卻讓我們陷入了無(wú)休止的討論之中,人權是我們走出“正確”一面所需要遵循的亮點(diǎn)?;蛘哒撟C如此。

不幸的是,這一論點(diǎn)是基于對UDHR能力的過(guò)高估計,以及對道德是什么和做什么的低估 - 這兩者都是常見(jiàn)的錯誤。“世界人權宣言”由三十篇文章組成,這些文章共同描繪了我們認為對每個(gè)人都至關(guān)重要的內容,無(wú)論他們的文化,性別或社會(huì )經(jīng)濟環(huán)境如何。它觸及人類(lèi)生活的各個(gè)方面,從教育到婚姻,從宗教到健康,確保了每一個(gè)問(wèn)題的普遍價(jià)值觀(guān)。從這個(gè)意義上說(shuō),“世界人權宣言”具有普遍性并得到廣泛認同。但是,在這種普遍化程度上,我們也就道德問(wèn)題達成了一致意見(jiàn)。我們認為幸福,滿(mǎn)足,自治和正義等思想具有道德價(jià)值; 我們認識到健康的道德價(jià)值,教育,工作和人類(lèi)生活的其他核心方面。道德和UDHR在同一頁(yè)上,如果我們保持一般。但是,只有當這些深刻的價(jià)值觀(guān)發(fā)生沖突,必然涉及權衡取舍時(shí),關(guān)于什么才是正確的事情或什么樣的政策才能實(shí)施的問(wèn)題才會(huì )變得具有挑戰性。當我們深入挖掘時(shí),UDHR根本無(wú)法指導我們解決這些問(wèn)題。解決這些挑戰是道德推理的工作。

讓我用上述報告中的案例解釋這一點(diǎn):在醫療保健中使用診斷AI系統。AI系統可用于改進(jìn)診斷。哈佛報告列出了這些系統可能對人權產(chǎn)生的積極和消極影響。診斷AI工具的準確性和效率對生命權,自由權,安全性,適當的生活水平和教育產(chǎn)生積極影響。相反,構建這些工具的數據需求會(huì )對隱私權產(chǎn)生負面影響。那么,這意味著(zhù)什么呢?我們是否應該開(kāi)發(fā)診斷AI工具?

一個(gè)答案是嘗試通過(guò)技術(shù)手段解決對隱私權的負面影響與對其他提及權利的積極影響之間的這種沖突。如果我們可以開(kāi)發(fā)可以在不侵犯隱私的情況下開(kāi)發(fā)診斷AI工具的方法,那么我們就不必在不同權利之間進(jìn)行平衡。到現在為止還挺好。請注意,我們不需要UDHR框架來(lái)獲得此結果。使用功利主義或康德倫理學(xué),我們會(huì )得出同樣的結論。我們非常偏愛(ài)隱私,并且更傾向于更好的診斷。在功利框架中,任何能夠滿(mǎn)足這兩種偏好的人工智能系統都是正確的?;蛘?,采取康德式方法,我們認為將人視為目的需要在訪(fǎng)問(wèn)私人信息之前獲得他們的同意。同樣需要確保手段的開(kāi)發(fā)(例如醫療保健中的高效AI工具),以幫助他們保持健康和活力,以實(shí)現其目的。當然,這兩項義務(wù)的限制都可以進(jìn)行辯論,理想的結果就是實(shí)現它們。

但如果不可能擁有一切呢?如果我們想盡快為所有正在遭受痛苦和/或死亡的患者開(kāi)發(fā)有效的人工智能工具,我們如何不能完全尊重隱私呢?使用UDHR框架,我們沒(méi)有答案。事實(shí)上,我們處于死胡同。一旦我們從這些不具約束力的普遍商定的條款中邁出了一步,我們就處于具有約束力的國家法律層面 - 受到“世界人權宣言”的不同程度的影響,但這不可避免地會(huì )引入其非普遍的解釋。此外,一些國家只是在名義而非精神上堅持UDHR。

相比之下,就像道德一樣凌亂,我們在通過(guò)道德理論處理這個(gè)難題時(shí)還沒(méi)有走到盡頭。在功利框架中,我們會(huì )嘗試最大限度地提高AI工具的效率,同時(shí)最大限度地減少隱私侵權,以減少整體傷害。如果存在爭議,那將是關(guān)于在哪里準確劃線(xiàn),但原則 - 包括如何處理權衡的原則 - 將是明確界定的。在康德框架中,我們可能必須弄清楚隱私意味著(zhù)什么,例如,在去識別數據的背景下,這些數據只能通過(guò)復雜的手段追溯到個(gè)人,以及是否會(huì )有嚴格的規則。在社會(huì )正義理論中,我們將研究這些決策對社會(huì )不同階層的影響。

換句話(huà)說(shuō),在一個(gè)簡(jiǎn)單的案例中,道德規范會(huì )給出與UDHR一樣簡(jiǎn)單的答案。但是,當不同的人權之間存在沖突時(shí),我們必須轉向道德和政治哲學(xué)的原則來(lái)進(jìn)一步推理。道德推理將使我們能夠達成一系列合理的行動(dòng),即使沒(méi)有一個(gè)正確的答案超越任何爭議。這是一個(gè)明顯優(yōu)于UDHR的優(yōu)勢,因為沒(méi)有指導解決不同權利之間的沖突 - 顯然哈佛報告也只是證明了這些沖突而不是解決沖突。

我并不是說(shuō)UDHR在道德技術(shù)的討論中沒(méi)有任何用處。它的清晰度,遺產(chǎn)和廣泛的接受使UDHR成為一個(gè)很好的工具,用于開(kāi)始探索任何給定的AI系統或開(kāi)發(fā)這些系統的實(shí)踐可能存在的問(wèn)題。但是,如果目的不僅僅是確定問(wèn)題而且還要解決問(wèn)題,那么UDHR就不足以做到這一點(diǎn)。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。