人工智能系統中的偏差可能導致意想不到的后果

2020-03-17 14:18:40    來(lái)源:    作者:

Alexa。Siri。Cortana。這些虛擬數字助理已成為我們日常生活的一部分,除了功能上的相似之處外,它們還有一個(gè)共同的重要特征:它們都被編碼為女性。

人工智能系統中的偏差可能導致意想不到的后果

如果您從未考慮過(guò)為什么所有這些AI幫助者都是女性,那么您并不孤單。LivePerson是一個(gè)基于云的客戶(hù)服務(wù)消息傳遞解決方案,它對 1,000名美國成年人進(jìn)行了一項調查,以確定他們對AI的看法以及技術(shù)領(lǐng)域的性別差距。在回答一個(gè)問(wèn)題時(shí),“ Alexa,Siri和Google助手默認為女性。您是否考慮過(guò)這個(gè)事實(shí)?” 總體而言,有53.2%的人表示沒(méi)有。

LivePerson首席執行官Rob LoCascio說(shuō):“與其他技術(shù)不同,“使用AI,您正在創(chuàng )建要與其他人互動(dòng)的東西,或者您正在使用它來(lái)補充人類(lèi)活動(dòng),做出決策和建議。” “因此,我們不得不問(wèn)為什么?為什么我們將這些“幫助者”技術(shù)性別化為女性?這對我們對世界上和工作場(chǎng)所中的女性的期望有何看法?女性天生就是“幫助者”;他們是“ na”;他們扮演行政角色;他們擅長(cháng)接訂單嗎?”

人工智能系統中的偏差可能導致意想不到的后果

當然,不僅僅是數字助理有偏見(jiàn)問(wèn)題。正如彭博社報道的那樣,研究人員已經(jīng)開(kāi)始注意到AI系統重復并擴大其創(chuàng )作者偏見(jiàn)的趨勢。

“公司,政府機構和醫院越來(lái)越多地使用機器學(xué)習,圖像識別和其他AI工具來(lái)幫助預測一切,從貸款申請人的信譽(yù)度到癌癥患者的首選治療。這些工具有很大的盲點(diǎn),尤其對婦女和少數民族有影響。”該文章說(shuō)。

人工智能系統中的偏差可能導致意想不到的后果

例如,在招聘和雇用中,人工智能通常用于確定理想職位的候選人。但是,如果放任自流,AI可能會(huì )使IT等領(lǐng)域的多樣性問(wèn)題更加嚴重,因為IT領(lǐng)域已經(jīng)嚴重缺乏女性和代表性不足的少數民族。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。