研究突出了不良AI在識別非西非人方面的表現

2020-03-05 14:56:33    來(lái)源:    作者:

科羅拉多大學(xué)博爾德大學(xué)進(jìn)行的一項研究表明,人工智能在識別非同性戀者方面有多么糟糕。

認可機構在承認種族少數族裔方面令人擔憂(yōu)的問(wèn)題越來(lái)越有據可查,但這項新研究是第一個(gè)評估性別分類(lèi)的研究。

研究突出了不良AI在識別非西非人方面的表現

AI系統根據人們可以“看到”的東西對他們進(jìn)行分類(lèi),并經(jīng)常使用定型參數(例如,男性沒(méi)有長(cháng)發(fā),女性沒(méi)有胡須)。

性別種類(lèi)繁多:例如,Facebook 為用戶(hù)提供大約71種選擇。也許期望過(guò)高,以至于無(wú)法期望AI能夠對每個(gè)人進(jìn)行準確分類(lèi),但是研究人員發(fā)現有關(guān)可能導致嚴重困擾的錯誤分類(lèi)。

從事這項研究的研究員Morgan Klaus Scheuerman確認為男性。在下圖中,左邊的Microsoft的AI正確地將他標識為男性,而右邊的IBM的AI將其標識為女性:

舒爾曼說(shuō),在測試自己的照片時(shí),盡管被確定為“規范性”性別,但他仍被錯誤分類(lèi)了一半左右。

研究突出了不良AI在識別非西非人方面的表現

只要分類(lèi)大致正確,就不會(huì )造成太多困擾。但是,想象一下一個(gè)人花了多年的時(shí)間覺(jué)得自己是錯誤的性別,在過(guò)渡期間可能面臨欺凌和騷擾,甚至進(jìn)行過(guò)手術(shù)和/或激素治療,然后AI將其歸類(lèi)為出生時(shí)的性別。

Scheuerman和他的團隊測試了10種現有的面部分析和圖像標記服務(wù)。如您所見(jiàn),目前大多數服務(wù)都堅持嘗試確定順式性別:

平均而言,面部分析系統在順性別女性的圖像上表現最佳,而在變性男性的圖像上表現最差。

以下是將性別分類(lèi)時(shí)每個(gè)服務(wù)的結果:

時(shí)尚潮流隨著(zhù)時(shí)間而發(fā)展。發(fā)型尤其要經(jīng)歷多個(gè)階段。男性在某些時(shí)期選擇了長(cháng)發(fā)(比如懷特斯納克(Whitesnake),古恩斯玫瑰(Guns Rose)和航空史密斯(Aerosmith)等70年代/ 80年代樂(lè )隊),而如今,有像露絲·貝爾(Ruth Bell)這樣的成功女性模特兒也喜歡與男性聯(lián)系在一起。

研究突出了不良AI在識別非西非人方面的表現

在十年左右的時(shí)間里,男性甚至可能會(huì )刮胡子,而女性則會(huì )留胡子。如今,接受過(guò)圖像訓練的AI會(huì )努力適應和分類(lèi)這種變化,這又帶來(lái)了另一個(gè)問(wèn)題。

通常有很多問(wèn)題,沒(méi)有解決方案,但確實(shí)有。通過(guò)社會(huì )歧視和不平等等因素,像LGBT這樣的社區已經(jīng)面臨精神健康不良的高風(fēng)險。使這些問(wèn)題自動(dòng)化將產(chǎn)生災難性的后果。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。