這是一個(gè)人工智能仍然嚴重缺乏某些人類(lèi)屬性的示例:測試表明,僅通過(guò)將一個(gè)單詞替換為同義詞就可以將自然語(yǔ)言處理(NLP)系統欺騙為誤解文本。

麻省理工學(xué)院的一個(gè)研究小組開(kāi)發(fā)了一個(gè)名為T(mén)extFooler的軟件,該軟件尋找對NLP分類(lèi)器最關(guān)鍵的單詞并將其替換。團隊提供了一個(gè)示例:

對于人類(lèi)來(lái)說(shuō),沒(méi)什么問(wèn)題。然而,有關(guān)認可機構的結果卻是驚人的。例如,Google的神經(jīng)網(wǎng)絡(luò )BERT在確定Yelp的評論是正面還是負面時(shí)就差了多達7倍。
道格拉斯·天堂(Douglas Heaven)為《麻省理工學(xué)院技術(shù)評論》撰寫(xiě)該研究的綜述,解釋了為何這項研究很重要。“我們已經(jīng)看到了許多對抗性攻擊的例子,其中最常見(jiàn)的是圖像識別系統,在這種情況下,對輸入的微小改動(dòng)就會(huì )使AI產(chǎn)生混亂,并使AI對所看到的內容進(jìn)行錯誤分類(lèi),” Heaven寫(xiě)道。“ TextFooler表明,這種攻擊方式也打破了NLP,虛擬助手(如Siri,Alexa和Google Home)背后的AI以及垃圾郵件過(guò)濾器和仇恨語(yǔ)音檢測器等其他語(yǔ)言分類(lèi)器。”
該出版物探討了AI技術(shù)超越人類(lèi)努力的各種方法,例如檢測乳腺癌,玩StarCraft和公開(kāi)辯論。在其他領(lǐng)域,抵抗仍然存在,但徒勞無(wú)功。在12月,據報道,人類(lèi)的司機仍在跳動(dòng)的整體認可,在無(wú)人駕駛的賽車(chē),盡管無(wú)人機賽的首席技術(shù)官聯(lián)盟預測,2023將是其中AI接管了一年。

研究人員希望,諸如TextFooler之類(lèi)的軟件的最終目標是使NLP系統更強大。
附言:對于那些從不列顛群島,中國和某些英聯(lián)邦國家以外的國家讀書(shū)的人來(lái)說(shuō),要“斯諾克”某人源于同名運動(dòng),就是“讓一個(gè)人處于困境”。與美國相對應的是“落后于八球制”,盡管這當然會(huì )引起頭條。
