跨國科技公司如何倡導道德人工智能

2020-02-04 11:09:18    來(lái)源:    作者:

在過(guò)去的兩年中,我們在技術(shù)行業(yè)的討論和關(guān)于人工智能(AI)道德規范以及道德原則在塑造我們的使用和體驗方式中的作用方面的討論急劇增加。研究界也遵循了這一步伐,從機器學(xué)習偏見(jiàn)到可解釋性到安全隱患的所有方面,已發(fā)表的論文都顯著(zhù)增加。

跨國科技公司如何倡導道德人工智能

這不是新的。正如數據與學(xué)會(huì )的雅各布·梅特卡夫(Jacob Metcalf)所指出的那樣,在1990年代初期,計算機協(xié)會(huì )(ACM)和電氣電子工程師學(xué)會(huì )(IEEE)都發(fā)布了計算機科學(xué)家的道德準則,最近,我們看到了無(wú)數的社會(huì )科學(xué)家STS研究人員對技術(shù)可能危害人類(lèi)和社會(huì )的可能性發(fā)出了警告。

盡管有些人很快將AI歸類(lèi)為具有中斷歷史的行業(yè)中的最新中斷,但AI改變世界的速度使其處于不同的類(lèi)別。再加上風(fēng)險上升,我們的行業(yè)最終通過(guò)在技術(shù)投入市場(chǎng)之前將道德考量納入技術(shù)設計,開(kāi)發(fā),部署和使用中,最終聽(tīng)取了經(jīng)驗豐富的領(lǐng)域專(zhuān)家的建議。

但是,這種活動(dòng)的增加導致了“洗道德”的指責,這是一個(gè)貶義詞,用來(lái)描述夸大組織對道德原則的興趣以增強其公眾認知的做法。這就引出了有關(guān)“行動(dòng)”的可理解的問(wèn)題。公司正在做什么,以將原則上的主張轉化為實(shí)際的治理?更重要的是,他們如何將這些實(shí)踐應用到企業(yè)文化中,而企業(yè)文化在大多數情況下從未被要求將其視為產(chǎn)品生命周期的必需要素?

盡管許多科技公司一直在開(kāi)發(fā)新的計劃,以將道德規范整合到產(chǎn)品的設計和部署中,但許多公司都不愿公開(kāi)談?wù)撨@些努力,因為它們是如此之初。但是,這些挑戰的緊迫性要求我們在學(xué)習過(guò)程中共享公司,以便每個(gè)人都受益,因為我們都在努力應對類(lèi)似的挑戰。

作為來(lái)自40家公司的“道德執行官”的世界經(jīng)濟論壇社區的一部分,其中大多數是新成立的職位或辦公室,整個(gè)行業(yè)的領(lǐng)導者都表示,他們的公司甚至沒(méi)有一個(gè)基本框架來(lái)應對產(chǎn)品的設計方式和對象。應該賣(mài)給–在缺乏系統方法的情況下,許多人默認做出被動(dòng)的一次性決定。

跨國科技公司如何倡導道德人工智能

在Microsoft,我們已經(jīng)公開(kāi)發(fā)表了有關(guān)實(shí)施強大的“負責任的AI”治理流程的計劃的信息,該計劃目前正在進(jìn)行中。盡管我們會(huì )在前進(jìn)的過(guò)程中分享更多的東西,但我們早已吸取的一課是關(guān)于在實(shí)現治理流程和實(shí)踐中發(fā)揮關(guān)鍵作用的重要性:負責任的AI冠軍。

負責任的AI冠軍

在Microsoft中,“冠軍”非常簡(jiǎn)單,是指領(lǐng)域專(zhuān)家,可以讓給定地理位置和/或工作組中的其他同事了解,咨詢(xún),協(xié)助和升級。多年來(lái),我們擁有針對安全性,競爭產(chǎn)品,開(kāi)源和許多其他領(lǐng)域的冠軍。

這對于倫理學(xué)來(lái)說(shuō)是如此重要,主要有兩個(gè)原因。首先,技術(shù)倫理是大多數員工擔任大多數職務(wù)的新課題。其次,該領(lǐng)域要求在組織級別上分散分布的知識和便利存在。

第一個(gè)原因是有據可查的。幸好,斯坦福大學(xué),麻省理工學(xué)院,圣克拉拉大學(xué)Markkula中心,哈佛大學(xué),康奈爾大學(xué)等其他領(lǐng)先的技術(shù)機構正在解決醫學(xué)院,法學(xué)院和哲學(xué)系之外沒(méi)有正式的大學(xué)道德課程的問(wèn)題,但已經(jīng)有人科技人員的學(xué)習曲線(xiàn)陡峭。在Microsoft,Champs通過(guò)介紹核心概念,決策框架和流程來(lái)幫助他們了解陡峭的學(xué)習曲線(xiàn),以識別如何評估危害的定義,遭受危害的可能性和嚴重程度以及危害的嚴重性。它的影響。

第二個(gè)原因同樣令人生畏:變更管理以幫助人們從事成熟的全球業(yè)務(wù)的形式,將道德原則納入現有產(chǎn)品生命周期的每個(gè)方面,包括解決方案開(kāi)發(fā)和銷(xiāo)售。

如果有足夠的相似之處,我們通常會(huì )依靠歷史類(lèi)似物來(lái)制定應對這些挑戰的方法。安全和隱私是Microsoft的兩個(gè)相似之處。在安全方面,比爾·蓋茨(Bill Gates)在2002年發(fā)布的“可信賴(lài)計算” 備忘錄使產(chǎn)品文化發(fā)生了深刻的變化,該備忘錄對我們的軟件開(kāi)發(fā)流程進(jìn)行了更改,最終使該更改成為了Microsoft安全開(kāi)發(fā)生命周期( SDL)。隱私的作用是由最近的催化劑,即微軟承諾的歐盟通用數據保護條例(GDPR)推動(dòng)的為全球客戶(hù)采用。在這兩個(gè)類(lèi)似物中,都有一個(gè)明確的決定性時(shí)刻,這為前進(jìn)的道路帶來(lái)了清晰感,然后持續努力以達到期望的結果。

負責任的AI是一個(gè)多年的旅程,與薩蒂亞·納德拉的2016開(kāi)始的專(zhuān)欄上需要為人工智能的倫理框架,其次是2017年形成的AETHER委員會(huì ),2018年出版的未來(lái)已計算等幾個(gè)步驟,以水泥微軟對負責任創(chuàng )新的承諾。在這種情況下,Champ的角色是在此基礎上建立基礎,并充當負責任AI的內部倡導者和傳播者,促進(jìn)持續的努力以鞏固其在我們產(chǎn)品和銷(xiāo)售文化中的作用。

跨國科技公司如何倡導道德人工智能

具體來(lái)說(shuō),負責任的AI冠軍有五項主要職責:

提高團隊和工作組中負責任的AI原則和實(shí)踐的意識

幫助團隊和工作組在A(yíng)I功能,產(chǎn)品或服務(wù)生命周期中實(shí)施規定的實(shí)踐

向負責人就負責任的AI開(kāi)發(fā)的好處以及意外傷害的潛在影響提供建議

通過(guò)可用渠道識別和升級AI的問(wèn)題和敏感使用

通過(guò)在組織內外培養負責任的AI傳播者社區,培養以客戶(hù)為中心和全球視野的文化

歷史上,Champ一直是Microsoft的職能部門(mén)。由于領(lǐng)域的興趣和/或在給定領(lǐng)域的領(lǐng)導作用,冠軍擁有全職工作并擔任冠軍。他們的背景多種多樣,在技術(shù),商業(yè),社會(huì )科學(xué)和法律等領(lǐng)域尤為重要。例如,了解學(xué)科知識并能說(shuō)工作組語(yǔ)言的數據科學(xué)家和工程師可以在技術(shù)團隊中擔任冠軍,但具有社會(huì )科學(xué)方面的工作知識,可以為潛在的社會(huì )影響帶來(lái)急需的觀(guān)點(diǎn)。但是,在銷(xiāo)售團隊中,面向客戶(hù)的角色處理非常不同的問(wèn)題,Champ擔任潛在客戶(hù)的潛在敏感用途的顧問(wèn),我們從潛在客戶(hù)那里收到各種建議書(shū)。

資歷并不比對增強我們使可定義的,可重復的業(yè)務(wù)實(shí)踐以支持負責任的AI成為我們文化的永久組成部分的能力的熱情和承諾重要。

我們將在學(xué)習中分享更多信息,但很明顯,香榭麗舍計劃的實(shí)施對于任何治理工作的成功都是至關(guān)重要的。從原則到行動(dòng)的持續轉變要求在產(chǎn)品生命周期的每個(gè)階段都改變文化,并在工作組層面上持續努力以確保持續的進(jìn)步和學(xué)習。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。