確保公司AI符合道德的8種方法

2020-02-04 11:03:08    來(lái)源:    作者:

跟上人工智能(AI)和數據隱私的發(fā)展勢不可擋。盡管AI擁有大量的希望和機遇,但人們也擔心數據濫用和個(gè)人隱私受到威脅。在我們評估這些主題時(shí)以及隨著(zhù)第四次工業(yè)革命的進(jìn)行,人們對AI的前景和危險以及組織如何更好地實(shí)現其價(jià)值提出了疑問(wèn)。

確保公司AI符合道德的8種方法

對于工程師和開(kāi)發(fā)人員而言,將“道德規范”集成到技術(shù)產(chǎn)品中可能會(huì )變得抽象。盡管許多技術(shù)公司正在以具體而切實(shí)的方式獨立地研究如何做到這一點(diǎn),但我們必須打破這些孤島并分享最佳實(shí)踐。通過(guò)相互協(xié)作以相互學(xué)習,我們可以提高整個(gè)行業(yè)的門(mén)檻-一個(gè)很好的起點(diǎn)是著(zhù)重于獲得信任的事物。

許多公司都在發(fā)布有關(guān)設計和部署AI產(chǎn)品的方法的高級原則。但是,原則只有在實(shí)際實(shí)施的情況下才有價(jià)值。Workday最近發(fā)布了《道德AI的承諾》,以展示我們如何實(shí)施直接建立在客戶(hù)服務(wù),誠信和創(chuàng )新的核心價(jià)值之上的原則。根據我們的經(jīng)驗,這是為希望在整個(gè)組織中倡導這些原則的技術(shù)公司提供的八課:

1.定義“ AI倫理”的含義。對于公司中所有相關(guān)的利益相關(guān)者,此定義必須是特定的且可采取行動(dòng)。在我公司,這意味著(zhù)我們的機器學(xué)習(ML)系統反映了我們對道德AI的承諾:我們以人為本。我們關(guān)心社會(huì );我們公平行事并尊重法律;我們透明且負責;我們保護數據;并且我們提供了適合企業(yè)使用的機器學(xué)習系統。

確保公司AI符合道德的8種方法

2.在產(chǎn)品開(kāi)發(fā)和發(fā)布框架中構建符合道德規范的AI。這些不能是為開(kāi)發(fā)人員和產(chǎn)品團隊帶來(lái)更多工作和復雜性的單獨過(guò)程。Workday已將我們的原則構建到我們產(chǎn)品開(kāi)發(fā)的架構中,并創(chuàng )建了可推動(dòng)持續遵守這些原則的流程。新的機器學(xué)習控制已被納入我們的正式控制框架中,以作為對我們機器學(xué)習倫理原則的額外執行。我們的開(kāi)發(fā)團隊通過(guò)提出有關(guān)數據收集和數據最小化,透明度和價(jià)值的問(wèn)題,以道德的角度審查每一種機器學(xué)習產(chǎn)品。我們在隱私領(lǐng)域擁有悠久的歷史,包括設計隱私流程以及根據我們的控制和標準進(jìn)行的第三方審核。Workday接受了一套針對計算機學(xué)習的按道德規范設計的控件,并建立了健全的審批機制來(lái)發(fā)布新技術(shù)以及任何新的數據使用方式。我們致力于持續審查我們的流程,并不斷發(fā)展以納入新的行業(yè)最佳實(shí)踐和監管準則。

3.創(chuàng )建跨職能的專(zhuān)家組,以指導有關(guān)負責任的機器學(xué)習和人工智能的設計,開(kāi)發(fā)和部署的所有決策。在此旅程的早期,Workday建立了一個(gè)機器學(xué)習工作隊,由來(lái)自我們的產(chǎn)品和工程,法律,公共政策和隱私,道德與合規團隊的專(zhuān)家組成。這些小組研究了我們產(chǎn)品中ML的未來(lái)和現有用途。匯集這些多樣化的技能和觀(guān)點(diǎn)來(lái)討論產(chǎn)品中ML的未來(lái)和現有用途非常有效,并且使我們能夠在產(chǎn)品生命周期的早期識別潛在問(wèn)題。

4.將客戶(hù)協(xié)作帶入負責任的AI的設計,開(kāi)發(fā)和部署。在產(chǎn)品開(kāi)發(fā)生命周期中,Workday會(huì )與我們的客戶(hù)咨詢(xún)委員會(huì )合作,該委員會(huì )來(lái)自我們廣泛的客戶(hù)群,在我們的產(chǎn)品開(kāi)發(fā)生命周期中,它獲得了有關(guān)AI和ML相關(guān)開(kāi)發(fā)主題的反饋。通過(guò)我們的早期采用者計劃,我們與少數幾個(gè)作為設計合作伙伴的客戶(hù)緊密合作,通過(guò)創(chuàng )新服務(wù)來(lái)測試新的ML模型和功能,從而使我們能夠盡早了解和解決客戶(hù)關(guān)于A(yíng)I和ML的想法和問(wèn)題我們共同開(kāi)發(fā)以人為本的ML解決方案。

5.采用生命周期方法來(lái)偏向機器學(xué)習。機器學(xué)習工具提供了一個(gè)難得的機會(huì ),可以幫助我們的客戶(hù)利用數據來(lái)增強人類(lèi)的決策能力。有了這個(gè)機會(huì ),就有責任建立企業(yè)就緒的工具來(lái)維持客戶(hù)的信任,這就是為什么我們對道德AI承諾的重點(diǎn)之一就是減輕ML中的有害偏見(jiàn)。我們使用“生命周期方法”,從新產(chǎn)品的最初概念到發(fā)布后階段,我們將通過(guò)這種方法執行各種偏差評估和審查。

6.要透明。ML對數據的道德使用要求透明。由于ML算法可能非常復雜,因此公司應該在解釋使用什么數據,如何使用數據以及用于什么目的方面超越其他領(lǐng)域。向客戶(hù)說(shuō)明您的機器學(xué)習技術(shù)如何工作以及它們所提供的好處,并描述為您提供的任何機器學(xué)習解決方案提供支持所需的數據內容。在您的機器學(xué)習解決方案中向客戶(hù)展示責任。

7.授權您的員工設計負責任的產(chǎn)品。我們通過(guò)必需的道德培訓模塊,工具包,研討會(huì ),員工入職培訓和講習班來(lái)做到這一點(diǎn),以確保對員工進(jìn)行如何遵守我們的AI道德承諾的培訓。例如,一個(gè)以人為中心的設計思想研討會(huì )使用不同的場(chǎng)景和角色來(lái)幫助Workday員工理解我們對創(chuàng )建道德ML技術(shù)的承諾。

確保公司AI符合道德的8種方法

8.分享您所知并向行業(yè)內其他人學(xué)習。我們通過(guò)參加行業(yè)團體和同行會(huì )議(例如世界經(jīng)濟論壇技術(shù)倫理設計和部署指導委員會(huì ))來(lái)做到這一點(diǎn),以幫助開(kāi)發(fā)技術(shù)產(chǎn)業(yè)的道德框架。此外,Workday將監控和促進(jìn)新標準和計劃作為優(yōu)先事項。在美國,我們在道德AI方面與立法者和機構官員進(jìn)行了廣泛接觸,包括制定和參加國會(huì )AI核心小組的工作人員介紹“道德AI的行業(yè)方法”的簡(jiǎn)報會(huì ),并在行業(yè)和決策者之間扮演召集人的角色。多個(gè)場(chǎng)所。此外,我們還為美國國家科學(xué)基金會(huì )(National Science Foundation)對國家人工智能研究與發(fā)展戰略計劃和美國國家標準技術(shù)研究院(NIST)的報告,人工智能標準和工具開(kāi)發(fā)。我們繼續倡導NIST在A(yíng)I倫理工具的開(kāi)發(fā)中發(fā)揮更大的作用。在歐洲,Workday參與了一項試點(diǎn)計劃,以評估歐盟高級專(zhuān)家組的道德準則(HLEG)可信賴(lài)的人工智能評估列表。

在我們不斷發(fā)展的道德AI世界中,分享實(shí)踐并確定我們在此過(guò)程中學(xué)到的知識將比以往任何時(shí)候都更加重要。我們渴望聽(tīng)到其他人對擴大規模和實(shí)施有效的方法的意見(jiàn),我們歡迎分享的機會(huì )。實(shí)際上,Workday 與世界經(jīng)濟論壇進(jìn)行合作的目的是鼓勵其他人加入我們,分享他們在倡導負責任和道德技術(shù)方面的最佳實(shí)踐。追求負責任,合乎道德的人工智能和技術(shù)至關(guān)重要-并且比任何一家公司或組織都更大。

我們應當共同努力,通過(guò)我們的行動(dòng)建立善意和信任,使我們能夠認識到這些強大的新技術(shù)的好處。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。