算法顯示種族偏見(jiàn)后,Twitter有更多分析要做

2020-09-21 11:52:29    來(lái)源:新經(jīng)網(wǎng)    作者:艾靜

算法顯示種族偏見(jiàn)后,Twitter有更多分析要做

Twitter正在第一手了解消除算法中種族偏見(jiàn)的挑戰。社交網(wǎng)絡(luò )的Liz Kelley表示,在密碼工程師Tony Arcieri進(jìn)行了一項實(shí)驗,表明Twitter的算法在對照片進(jìn)行優(yōu)先級排序方面存在偏見(jiàn)之后,該公司還有“更多分析”要做。當將Barack Obama和Mitch McConnell的照片附加到推文上時(shí),Twitter似乎專(zhuān)門(mén)突出了McConnell的臉-奧巴馬僅在A(yíng)rcieri顛倒顏色時(shí)彈出,從而使膚色不成問(wèn)題。

算法顯示種族偏見(jiàn)后,Twitter有更多分析要做

其他人則嘗試顛倒照片和名字順序,但無(wú)濟于事。Intertheory的Kim Sherrell發(fā)現,高對比度的微笑確實(shí)有效。同時(shí),科學(xué)家Matt Blaze注意到,優(yōu)先級似乎因所使用的官方Twitter應用程序而異。例如,Tweetdeck更為中立。

凱利說(shuō),Twitter在使用當前算法之前已經(jīng)檢查過(guò)偏差,但是當時(shí)“找不到證據”。她補充說(shuō),Twitter將開(kāi)源其算法研究,以幫助其他人“審查和復制”。

不能保證Twitter可以糾正此問(wèn)題。但是,實(shí)驗確實(shí)顯示了算法偏向的真正危險,無(wú)論其意圖如何。即使他們是社交媒體帖子或鏈接的新聞文章的中心,它也可能使人們脫穎而出。您可能需要等待很長(cháng)時(shí)間,這樣的問(wèn)題才會(huì )非常罕見(jiàn)。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。