研究人員發(fā)表可解釋的AI調查

2020-04-01 13:18:50    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

從研究團隊I(yíng)BM沃森和亞利桑那州立大學(xué)已公布的一項調查中解釋的AI規劃(XAIP)的工作。該調查涵蓋67篇論文的工作,并繪制了該領(lǐng)域的最新趨勢。

研究人員發(fā)表可解釋的AI調查

由ASU的Yochan實(shí)驗室的Subbarao Kambhampati教授領(lǐng)導的團隊將他們的審查重點(diǎn)放在了自動(dòng)計劃系統領(lǐng)域:那些產(chǎn)生旨在實(shí)現目標狀態(tài)的行動(dòng)序列(或計劃)的系統??山忉尩挠媱澫到y能夠回答有關(guān)為何選擇特定動(dòng)作或動(dòng)作序列的問(wèn)題。該團隊指出,該領(lǐng)域中可解釋的系統可以分為基于算法的,基于模型的或基于計劃的,并且盡管近年來(lái)所有類(lèi)型的研究都在增加,但大多數工作已在基于模型的系統上完成。

在DARPA的2016年倡議的推動(dòng)下,近年來(lái)可解釋的AI(XAI)一直是活躍的研究主題。機器學(xué)習在諸如計算機視覺(jué)和自然語(yǔ)言處理等“感知”問(wèn)題上的廣泛采用,導致了針對分類(lèi)器(包括LIME和AllenNLP Interpret)的可解釋性技術(shù)的發(fā)展。感知是確定環(huán)境當前狀態(tài)的一項重要技能,而自主系統(例如機器人,無(wú)人駕駛汽車(chē)甚至是玩游戲的AI)也必須做出決定。這些AI系統經(jīng)常采用計劃,從而為AI采取一系列行動(dòng)以實(shí)現其目標。

研究人員發(fā)表可解釋的AI調查

可解釋的AI規劃(XAIP)系統能夠回答有關(guān)其計劃的問(wèn)題;例如,計劃中為何包含或未包含特定動(dòng)作的原因。該團隊將系統分為基于算法,??基于模型或基于計劃的系統。與最終用戶(hù)相反,基于算法的解釋通常對于系統設計人員調試算法最有幫助?;谟媱澋恼f(shuō)明使用摘要或抽象來(lái)使用戶(hù)能夠理解“在較長(cháng)時(shí)間范圍和較大狀態(tài)空間中”運行的計劃。大多數研究都是基于模型的解釋進(jìn)行的,該模型考慮了以下事實(shí):用戶(hù)比AI具有“相當少的計算能力”,并且通常具有不同于“基本事實(shí)”的思維模型。對于這些系統,說(shuō)明需要協(xié)調用戶(hù)的

研究人員發(fā)表可解釋的AI調查

DARPA的XAI計劃指出,可解釋系統的一種動(dòng)機是增強用戶(hù)對AI產(chǎn)生的結果的信任。但是,Kambhampati的研究小組指出,解釋過(guò)程也可以被“ 劫持 ”,以產(chǎn)生“不再是真實(shí)的,而是用戶(hù)認為令人滿(mǎn)意的任何東西”的解釋。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。