根據涉及UCL的一項新研究,在閱讀人們臉上的情緒時(shí),人工智能仍然落后于人類(lèi)觀(guān)察者。
根據《PLOS One》上發(fā)表的發(fā)現,這種差異在自發(fā)地表達情感方面尤其明顯。
由都柏林城市大學(xué)領(lǐng)導的研究小組研究了八個(gè)“開(kāi)箱即用”的自動(dòng)分類(lèi)器,用于面部表情識別(可以識別面部人類(lèi)表情的人工智能),并將其與人類(lèi)觀(guān)察者的表情識別性能進(jìn)行了比較。
研究人員發(fā)現,人類(lèi)對情感的識別準確度為72%,而在測試的人工智能中,研究人員觀(guān)察到的識別準確度在48%至62%之間變化。

首席作者達米恩·杜佩(DamienDupré)博士(都柏林城市大學(xué))說(shuō):“聲稱(chēng)能夠從面部表情識別人類(lèi)情緒的AI系統現在很容易開(kāi)發(fā)。但是,大多數人工智能系統都是基于無(wú)定論的科學(xué)證據,即人們在面部表情中表達情緒。一樣的方法。
“對于這些系統,人類(lèi)的情感只可以歸結為六種基本情感,但它們不能很好地應對混合情感。
“使用這種系統的公司需要意識到,獲得的結果并不是衡量所感受到的情緒的指標,而僅僅是衡量一個(gè)人的面部與應該對應于這六種情緒之一的面部相匹配的程度。”
這項研究涉及從兩個(gè)大型數據庫中采樣的937個(gè)視頻,這些視頻傳達了六種基本情緒(幸福,悲傷,憤怒,恐懼,驚奇和厭惡)。選擇了兩個(gè)著(zhù)名的動(dòng)態(tài)面部表情數據庫:紐約賓厄姆頓大學(xué)的BU-4DFE和達拉斯德克薩斯大學(xué)的另一個(gè)。兩者都在情感類(lèi)別方面進(jìn)行了注釋?zhuān)⑶野藙莼蜃园l(fā)的面部表情。所有檢查的表情都是動(dòng)態(tài)的,以反映人類(lèi)面部行為的現實(shí)本質(zhì)。
自發(fā)性情感行為的AI分類(lèi)準確率始終較低,但姿勢表達的差距縮小。最好的兩種人工智能系統在識別姿勢方面也很熟練。
為了評估情感識別的準確性,該研究比較了人類(lèi)裁判與八種商用自動(dòng)分類(lèi)器的性能。
共同作者,UCL心理學(xué)和語(yǔ)言科學(xué)學(xué)院的Eva Krumhuber博士補充說(shuō):“人工智能在識別人們的面部表情方面已經(jīng)走了很長(cháng)一段路,但是我們的研究表明,在識別真正的人類(lèi)情感方面仍有改進(jìn)的空間。”
在PLOS一個(gè)研究是由研究人員在都柏林城市大學(xué),UCL,不來(lái)梅大學(xué)和貝爾法斯特女王大學(xué)進(jìn)行。
Krumhuber博士最近領(lǐng)導了另一項研究,該研究發(fā)表在《情感》雜志上,該研究比較了十四種不同的動(dòng)態(tài)面部表情數據庫在情感識別方面的人與機器。這項規模較小的研究使用了不同的方法來(lái)分析機器數據,發(fā)現AI在識別情感方面可與人類(lèi)媲美。
