人工智能與傳播中的性別偏見(jiàn)的延續

2020-05-12 15:19:46    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

上周我參加了一個(gè)網(wǎng)絡(luò )研討會(huì )。它描述了Amazon AWS正在推出的新企業(yè)搜索工具。產(chǎn)品名稱(chēng)?肯德拉。這表明有必要再次討論嚴重的性別偏見(jiàn)問(wèn)題。這并不是純粹對亞馬遜的打擊,而是對我們整個(gè)行業(yè)的打擊。從數字助理到聊天等等的人工智能工具正在造成一個(gè)應糾正的問(wèn)題。

人工智能與傳播中的性別偏見(jiàn)的延續

Siri,Alexa,Cortana等都使用女性背景和聲音。例如,雖然Cortana這個(gè)名字聽(tīng)起來(lái)并不像是女性,但這個(gè)名字來(lái)自Halo游戲中的女性角色。

問(wèn)題也不僅僅局限于數字助理。一個(gè)由聯(lián)合國教科文組織報告的問(wèn)題,去年,介紹了性別偏見(jiàn),隱式和顯式的,技術(shù)內。然而,主要部分集中在數字助理上。然而,挑戰也擴展到了聊天機器人。正如報告中另外指出的那樣,“盡管如此,新方向不應掩蓋現狀。聊天機器人通常仍被編程為女性。據VentureBeat估計,僅在2016年就引入了30,000個(gè)聊天機器人,其中絕大多數具有女性角色。”

同時(shí),現在偏見(jiàn)的經(jīng)典例子是亞馬遜取消的人力資源系統,該系統基于有關(guān)公司先前雇用的人員的培訓數據而存在性別偏見(jiàn)。我應該指出,我不選擇亞馬遜。該公司足夠大,可以輕松找到信息,但是我敢肯定,該行業(yè)中的許多其他公司也存在類(lèi)似的問(wèn)題。

技術(shù)人員的決定不僅限于純技術(shù)公司。例如,美國銀行的助手是埃里卡(Erica)。Parmy Olsen 在此站點(diǎn)的另一篇文章中列出了許多其他銀行業(yè)務(wù)應用程序。

性別偏見(jiàn)的一個(gè)借口是,公司聲稱(chēng)人們對陳規定型觀(guān)念感到滿(mǎn)意。但是他們并不根深蒂固。正如聯(lián)合國教科文組織的報告所示,公司確實(shí)根據對不同國家的未披露分析做出一些決策。例如,“有趣的是,當用戶(hù)選擇阿拉伯語(yǔ),英語(yǔ),英語(yǔ),荷蘭語(yǔ)或法語(yǔ)作為語(yǔ)言選項時(shí),默認情況下,Siri是男性,這表明性別的意圖不僅僅在于人們普遍偏愛(ài)女性聲音。”

公司的存在是為了牟利,因此毫不奇怪,他們創(chuàng )造了他們認為會(huì )吸引并留住客戶(hù)的AI“聲音”(包括文字和音頻)。但是,公司也應被視為“良好的企業(yè)公民”。應該顯示的一種方法是在安裝和常規操作期間提供簡(jiǎn)單的選項,供客戶(hù)選擇用于A(yíng)I通信的多種聲音。這也意味著(zhù)名字不應該像今天這樣被自動(dòng)賦予女性。

在大多數社會(huì )中,性別偏見(jiàn)是一個(gè)嚴重的問(wèn)題。在高科技領(lǐng)域,這是一個(gè)更大的問(wèn)題。然而,我們的部門(mén)也聲稱(chēng)擁有解決這些偏見(jiàn)的能力和技能。聊天機器人,數字助理和其他計算機通信方式已經(jīng)過(guò)時(shí)了,無(wú)法開(kāi)始支持這一主張了。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。