AI系統會(huì )如何理解人類(lèi)價(jià)值

2020-01-25 11:40:09    來(lái)源:    作者:

機器學(xué)習(ML)算法已經(jīng)可以比他們正在研究的人類(lèi)更好地識別模式。這使他們能夠在各種高風(fēng)險情況下生成預測并做出決策。例如,電工使用IBM Watson的預測能力來(lái)預測客戶(hù)的需求。Uber的自動(dòng)駕駛系統決定了最快的路線(xiàn)將乘客帶到目的地。和Insilico醫學(xué)利用其藥物發(fā)現引擎,以確定新的藥品的途徑。

AI系統會(huì )如何理解人類(lèi)價(jià)值

隨著(zhù)數據驅動(dòng)學(xué)習系統的不斷發(fā)展,根據技術(shù)改進(jìn)來(lái)定義“成功”將很容易,例如增加數據算法可合成的數量,從而提高其模式識別的效率。但是,要使機器學(xué)習系統真正成功,他們需要了解人的價(jià)值觀(guān)。更重要的是,他們需要能夠權衡我們相互競爭的愿望和要求,了解我們最重視的結果,并采取相應的行動(dòng)。

了解價(jià)值

為了突出該種道德決策,我們的ML系統已經(jīng)與百家爭鳴凱伊Sotala,在芬蘭的研究人員對工作的基礎性研究院,輪流流量分析和自動(dòng)駕駛汽車(chē)。是否應該使用收費公路,以將通勤時(shí)間縮短五分鐘,還是為了節省成本,走更長(cháng)的路線(xiàn)會(huì )更好嗎?

AI系統會(huì )如何理解人類(lèi)價(jià)值

回答這個(gè)問(wèn)題并不像看起來(lái)那樣容易。

例如,如果A人節省了五分鐘的時(shí)間,則寧可選擇收費5美元的收費公路,但如果費用為10美元,他們可能不愿意采用收費公路。另一方面,人B可能總是更愿意選擇最短的路線(xiàn)而不考慮價(jià)格,因為他們比其他任何人都更重視時(shí)間。

在這種情況下,Sotala指出,我們最終要求ML系統確定人類(lèi)更看重的是時(shí)間或金錢(qián)。因此,關(guān)于快速走哪條路的簡(jiǎn)單問(wèn)題似乎變成了對競爭價(jià)值的復雜分析。有人可能會(huì )想,'行車(chē)路線(xiàn)就是效率。我將讓AI系統告訴我最佳的實(shí)現方式。”但是另一個(gè)人可能會(huì )覺(jué)得采用不同的方法具有一定的價(jià)值,”他說(shuō)。

確實(shí),機器學(xué)習系統必須權衡我們的價(jià)值并在所有決策中進(jìn)行權衡,但Sotala指出,在當前關(guān)頭這不是問(wèn)題。系統要處理的任務(wù)非常簡(jiǎn)單,因此研究人員可以手動(dòng)輸入必要的價(jià)值信息。但是,隨著(zhù)AI代理人的復雜性增加,Sotala解釋說(shuō),他們將需要能夠自行考慮并權衡我們的價(jià)值。

了解基于實(shí)用程序的代理

當涉及到整合價(jià)值時(shí),Sotala指出問(wèn)題在于智能代理如何做出決策。例如,恒溫器是一種反射劑。它知道由于設定的預定溫度而何時(shí)開(kāi)始加熱房屋—溫控器在溫度降至特定溫度以下時(shí)會(huì )打開(kāi)加熱系統,在溫度高于特定溫度時(shí)會(huì )關(guān)閉加熱系統。另一方面,基于目標的代理基于達成特定目標做出決策。例如,目標是購買(mǎi)購物清單中所有物品的代理商將繼續搜索,直到找到所有物品。

AI系統會(huì )如何理解人類(lèi)價(jià)值

基于實(shí)用程序的代理程序比基于目標的代理程序高出一步。他們可以進(jìn)行以下權衡取舍:今天,買(mǎi)牛奶比買(mǎi)新鞋更重要。但是,我比雜貨店離鞋店更近,兩家商店都將關(guān)門(mén)。在每個(gè)決策點(diǎn)上,基于目標的特工都會(huì )看到許多必須選擇的選項。每個(gè)選項都與特定的“效用”或獎勵相關(guān)。為了實(shí)現他們的目標,代理商遵循將最大化總獎勵的決策路徑。

從技術(shù)角度來(lái)看,基于實(shí)用程序的代理程序依靠“實(shí)用程序功能”來(lái)做出決策。這些是系統用于合成數據,平衡變量和最大化回報的公式。最終,獲得最大回報的決策路徑是系統被教導選擇以完成其任務(wù)的路徑。

盡管這些實(shí)用程序擅長(cháng)于發(fā)現模式并響應報酬,但Sotala斷言,當前基于實(shí)用程序的代理具有固定的優(yōu)先級。結果,當涉及未來(lái)的AGI系統時(shí),這些方法是不夠的,因為它們會(huì )自動(dòng)運行,因此需要對人類(lèi)的價(jià)值觀(guān)何時(shí)發(fā)生變化和變化有更深入的了解。

例如,一個(gè)人可能總是喜歡走更長(cháng)的路線(xiàn)來(lái)避開(kāi)高速公路并省錢(qián),但是如果他們心臟病發(fā)作并試圖去急診室則不然。當我們的時(shí)間和金錢(qián)價(jià)值發(fā)生變化時(shí),人工智能代理商應該如何預期和理解?這個(gè)問(wèn)題更加復雜,因為正如索塔拉(Sotala)所指出的那樣,人類(lèi)常常獨立于事物而對其價(jià)值進(jìn)行評估,而不論它們是否具有持續的,切實(shí)的回報。有時(shí),人類(lèi)甚至珍視在某些方面可能造成傷害的事物??紤]一個(gè)重視隱私的成年人,但他的醫生或治療師可能需要訪(fǎng)問(wèn)親密且深入的個(gè)人信息,這些信息可能會(huì )挽救生命。AI代理是否應透露私人信息?

最終,Sotala解釋說(shuō),基于實(shí)用程序的代理程序太簡(jiǎn)單了,并且沒(méi)有深入到人類(lèi)行為的根源。“效用函數描述的是行為,而不是行為的原因……。假設我們已經(jīng)大致了解該人所選擇的內容,它們更多地是描述性模型。”盡管描述性模型可能會(huì )認識到乘客更喜歡省錢(qián),但他們不理解原因,因此它將無(wú)法預期或確定其他值何時(shí)會(huì )超過(guò)“省錢(qián)”。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。