機器是種族主義者嗎? 算法和人工智能具有天生的偏見(jiàn)嗎?Facebook,Google和Twitter是否有政治偏見(jiàn)?這些答案很復雜。

但是,如果問(wèn)題在于科技行業(yè)是否在解決這些偏見(jiàn)方面做得足夠,那么直接的回答是“否”。
警告AI和機器學(xué)習系統正在使用“不良數據”進(jìn)行訓練。經(jīng)常被吹捧的解決方案是確保人們使用無(wú)偏數據來(lái)訓練系統,這意味著(zhù)人類(lèi)需要避免自己偏見(jiàn)。但這意味著(zhù)科技公司正在培訓其工程師和數據科學(xué)家以了解認知偏差以及如何“應對”偏差。有沒(méi)有人停下來(lái)問(wèn)那些給機器喂食的人是否真的了解偏見(jiàn)是什么意思?
諸如Facebook(我的前雇主),Google和Twitter之類(lèi)的公司因各種帶有偏見(jiàn)的算法而反復受到攻擊。為了應對這些合理的恐懼,他們的領(lǐng)導人發(fā)誓要進(jìn)行內部審計,并聲稱(chēng)他們將與這一指數級威脅作斗爭。正如無(wú)數的研究和出版物所表明的那樣,人類(lèi)無(wú)法完全避免偏見(jiàn)。堅持不這樣做是對一個(gè)非?,F實(shí)的問(wèn)題的一種理智上的不誠實(shí)和懶惰的反應。
在Facebook的六個(gè)月中,我被聘為公司業(yè)務(wù)誠信部全球選舉誠信運營(yíng)負責人,參與了有關(guān)該主題的眾多討論。我不知道有人故意將偏見(jiàn)納入工作。但是我也沒(méi)有找到任何人真正知道以任何真實(shí)和有條理的方式抵制偏見(jiàn)的含義。

在擔任CIA官員十多年的時(shí)間里,我經(jīng)歷了數月的結構性方法培訓和例行再培訓,以檢查假設和理解認知偏見(jiàn)。這是情報人員發(fā)展的最重要技能之一。分析人員和操作人員必須磨練測試假設的能力,并在分析事件時(shí)認真地評估自己的偏見(jiàn),并進(jìn)行不舒服且通常耗時(shí)的工作。他們還必須檢查那些向收藏家提供信息的人(資產(chǎn),外國政府,媒體,對手)的偏見(jiàn)。
傳統上,這類(lèi)培訓是為那些需要批判性分析思維的人員而設的,據我所知和經(jīng)驗,在技術(shù)領(lǐng)域這種培訓很少見(jiàn)。盡管高科技公司通常會(huì )接受強制性的“管理偏見(jiàn)”培訓來(lái)幫助解決多樣性和包容性問(wèn)題,但我沒(méi)有看到有關(guān)認知偏見(jiàn)和決策領(lǐng)域的任何此類(lèi)培訓,特別是與產(chǎn)品和流程的構建和保護有關(guān)的培訓。

從我的Facebook同事提出的一些想法來(lái)看,我花了多年時(shí)間做的所有事情-結構化的分析技術(shù),權衡證據,沒(méi)有得出結論,具有挑戰性的假設-都不是正常的做法,即使在解決問(wèn)題時(shí)也是如此。他們制造的產(chǎn)品在現實(shí)世界中的后果。在很大程度上,“快速行動(dòng)”文化與這些技術(shù)相反,因為在面臨重要決策時(shí)需要放慢速度。
