您如何訓練AI避免行為不端?至少根據馬薩諸塞州阿默斯特大學(xué),里約熱內盧聯(lián)邦大學(xué)和斯坦福大學(xué)聯(lián)合發(fā)表的論文《防止智能機器的不良行為》,美國和巴西的科學(xué)家似乎已經(jīng)找到了答案。為了向艾薩克·阿西莫夫(Isaac Asimov)的角色哈里·塞爾登(Hari Seldon)致敬,該小組開(kāi)發(fā)了所謂的“塞爾登算法”,這是一種機器學(xué)習設計師的框架,可將行為回避指令構建到實(shí)際產(chǎn)品和服務(wù)中使用的算法中。
阿西莫夫(Asimov)在1942年的短篇小說(shuō)《奔跑》(Runaround)中提出的三項機器人定律得到了很好的引用。本文試圖將重點(diǎn)放在第一條定律上,即永遠不會(huì )傷害人類(lèi),使用一種新技術(shù),該新技術(shù)使用數學(xué)算法將目標(例如避免性別偏見(jiàn))轉化為機器學(xué)習算法的指令,以訓練AI應用程序。
斯坦福大學(xué)計算機科學(xué)助理教授,該論文的高級作者艾瑪·布朗斯基爾(Emma Brunskill)說(shuō): “我們希望推動(dòng)尊重人類(lèi)用戶(hù)價(jià)值并證明我們對自主系統的信任的人工智能。” 隨著(zhù)社會(huì )越來(lái)越依賴(lài)人工智能,思考如何創(chuàng )建最能尊重安全性和公平性等價(jià)值的算法至關(guān)重要。
這樣的想法是,如果可以用數學(xué)方式定義“不安全”或“不公平”的結果,則開(kāi)發(fā)人員可以創(chuàng )建從數據中學(xué)習的算法,以減輕潛在的不良行為。當然,任何提議從倫理上清理數據的框架仍將充滿(mǎn)技術(shù)和道德上的復雜性,但是盡管這可能會(huì )限制AI終結人類(lèi)的任何嘗試,但企業(yè)如何應對數據無(wú)意地使AI傾斜呢?
舊金山埃森哲實(shí)驗室(Accenture Labs)首席研究科學(xué)家埃迪·利昂戈薩里(Edy Liongosari)表示,“技術(shù)對于解決行業(yè)中的數據偏差問(wèn)題至關(guān)重要”。Liongosari最近在巴塞羅那舉行的IoT世界大會(huì )活動(dòng)上發(fā)表講話(huà),概述了負責任AI的框架,該框架?chē)@組織在處理和使用數據以構建和實(shí)現應用程序時(shí)需要考慮的業(yè)務(wù)流程和技術(shù)而構建。
