AI研究人員如何應對透明AI:斯坦福大學(xué)史蒂夫·埃格拉什(Steve Eglash)訪(fǎng)談

2020-07-13 15:50:58    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

人工智能經(jīng)常被提及的挑戰之一是無(wú)法獲得關(guān)于人工智能系統如何做出決策的充分理解的解釋。盡管這對于機器學(xué)習應用程序(例如產(chǎn)品推薦或個(gè)性化方案)而言可能不是挑戰,但在需要理解決策的關(guān)鍵應用程序中使用AI都會(huì )面臨透明性和可解釋性問(wèn)題。

在最近的AI Today播客中,斯坦福大學(xué)計算機科學(xué)系戰略研究計劃主任Steve Eglash分享了有關(guān)透明和負責任的AI演變的見(jiàn)解和研究。Eglash教授是計算機科學(xué)系的一名工作人員,他與一小群人一起開(kāi)展研究計劃,與大學(xué)以外的公司合作。這個(gè)小組幫助公司與學(xué)生共享觀(guān)點(diǎn)和技術(shù),學(xué)生與公司共享技術(shù)。在加入斯坦福大學(xué)之前,史蒂夫是一名電氣工程師。在這個(gè)職位上,他介于技術(shù)和科學(xué)之間。在他最終進(jìn)入學(xué)術(shù)界之前,他還從事過(guò)投資,政府,研究工作。

AI研究人員如何應對透明AI:斯坦福大學(xué)史蒂夫·埃格拉什(Steve Eglash)訪(fǎng)談

隨著(zhù)AI在每個(gè)行業(yè)和政府中得到廣泛使用,深入了解AI使用的機會(huì )為斯坦福大學(xué)的學(xué)生提供了許多探索新領(lǐng)域的機會(huì )。充分了解人工智能的工作原理至關(guān)重要,因為我們越來(lái)越依賴(lài)人工智能來(lái)執行各種任務(wù),例如自動(dòng)駕駛汽車(chē)。在這些情況下,錯誤可能是致命的或導致嚴重的傷害或傷害。因此,更深入地研究透明和可解釋的AI系統可以使這些系統更加值得信賴(lài)和可靠。確保自動(dòng)駕駛汽車(chē)等AI技術(shù)的安全至關(guān)重要。我們需要確保AI能夠安全運行。因此,我們需要能夠理解計算機做出決策的方式和原因。與此同時(shí),

許多現代的AI系統都在神經(jīng)網(wǎng)絡(luò )上運行,而我們僅了解其基礎知識,因為算法本身很少提供解釋方式。缺乏解釋性通常被稱(chēng)為AI系統的“黑匣子”。研究人員將注意力集中在神經(jīng)網(wǎng)絡(luò )如何工作的細節上。由于神經(jīng)網(wǎng)絡(luò )的規模,很難檢查它們的錯誤。神經(jīng)元及其權重之間的每個(gè)連接都增加了復雜性,使事后檢查決策變得非常困難。

Reluplex-透明AI的一種方法

驗證是證明神經(jīng)網(wǎng)絡(luò )特性的過(guò)程。Reluplex是最近由許多人設計的一種程序,用于測試大型神經(jīng)網(wǎng)絡(luò )。Reluplex背后的技術(shù)使其能夠在大型神經(jīng)網(wǎng)絡(luò )中快速運行。Reluplex被用于測試自主無(wú)人機的機載碰撞檢測和回避系統。使用該程序時(shí),該程序能夠證明網(wǎng)絡(luò )的某些部分可以正常工作。但是,它也能夠找到網(wǎng)絡(luò )中的錯誤,該錯誤可以在下一個(gè)實(shí)現中修復。

關(guān)于黑匣子的想法,可解釋性是史蒂夫提出的另一個(gè)領(lǐng)域。如果您有大型模型,是否可以了解模型如何進(jìn)行預測?他以圖像識別系統為例,試圖了解海灘上狗的照片。它可以通過(guò)兩種方式識別狗。AI可以拍攝組成狗的像素并將其與狗關(guān)聯(lián)。另一方面,它可能需要圍繞狗的海灘和天空的像素來(lái)創(chuàng )建對狗在那里的了解。如果不了解系統是如何做出這些決定的,那么您將不知道網(wǎng)絡(luò )實(shí)際上正在接受什么培訓。

如果AI使用第一種方法來(lái)了解存在的狗,那么它正在以一種可以模擬我們自己的大腦工作方式的理性方式進(jìn)行思考。但是,替代方法可以視為弱關(guān)聯(lián),因為它不依賴(lài)包含狗的圖片的實(shí)際部分。為了確認AI是否正確處理了圖像,我們需要知道它是如何做到的,并且有很大一部分研究正在進(jìn)行此任務(wù)以及與之相似的任務(wù)。

探索數據偏差

人工智能系統的數據偏差也是斯坦福大學(xué)的重點(diǎn)。根據用于訓練機器學(xué)習模型的數據,發(fā)現人工智能系統存在相當大的偏差。AI用來(lái)做決定的數據通常會(huì )導致偏差,因為計算機沒(méi)有進(jìn)行公正分析所需的信息。除了有偏見(jiàn)的數據問(wèn)題之外,系統本身也可以通過(guò)僅考慮特定的組而使決策偏向偏見(jiàn)。當您訓練機器學(xué)習模型以?xún)A向于較大的數據組時(shí),它很可能會(huì )偏向那些較大的組。

我們需要消除AI系統與人之間的互動(dòng)越來(lái)越多的偏見(jiàn)。人工智能現在正在為人類(lèi)做出決策,例如保險資格,人員再次犯罪的可能性以及其他可能改變生活的決策。人工智能做出的決定具有現實(shí)世界的后果,我們不希望計算機使不平等和不公正現象長(cháng)期存在。

為了消除AI的偏見(jiàn),數據科學(xué)家需要分析AI并根據社會(huì )偏見(jiàn)做出決策。至此,Percy Liang教授正在與他的學(xué)生們一起創(chuàng )造強大的分布優(yōu)化,旨在擺脫人口統計學(xué)的影響,朝著(zhù)機器的力量集中于所有人群的方向發(fā)展。其他研究人員正在致力于關(guān)注人工智能的公平與平等。

由于A(yíng)I系統尚未證明其可解釋性和完全的可信賴(lài)性,因此Steve認為AI將主要以增強和輔助方式使用,而不是完全獨立。通過(guò)使人員處于循環(huán)中,我們可以更好地進(jìn)行更改,以便在系統做出有問(wèn)題的決策時(shí)保持警惕,并對AI輔助操作的最終結果施加更多控制。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。