這是一個(gè)人工智能仍然嚴重缺乏某些人類(lèi)屬性的示例:測試表明,僅通過(guò)將一個(gè)單詞替換為同義詞,自然語(yǔ)言處理(NLP)系統就可以被欺騙為誤解文本。

麻省理工學(xué)院的一個(gè)研究小組開(kāi)發(fā)了一個(gè)名為T(mén)extFooler的軟件,該軟件尋找對NLP分類(lèi)器最關(guān)鍵的單詞并將其替換。團隊提供了一個(gè)示例:
“字符,投在不可能的情況下做作,完全是從現實(shí)疏遠”和
“字符,在投不可能改造的情況下,是完全 從現實(shí)疏遠”
對于人類(lèi)來(lái)說(shuō),沒(méi)什么問(wèn)題。然而,有關(guān)認可機構的結果卻是驚人的。例如,Google的神經(jīng)網(wǎng)絡(luò )BERT在確定Yelp的評論是正面還是負面時(shí)就差了多達7倍。
道格拉斯·天堂(Douglas Heaven)為《麻省理工學(xué)院技術(shù)評論》撰寫(xiě)該研究的綜述,解釋了為什么這項研究很重要。“我們已經(jīng)看到了許多對抗性攻擊的例子,大多數情況下是在圖像識別系統中,對輸入的微小改動(dòng)會(huì )使AI變得模糊不清,并使AI對所看到的內容進(jìn)行錯誤分類(lèi),” Heaven寫(xiě)道。“ TextFooler表明,這種攻擊方式也打破了NLP,虛擬助手(如Siri,Alexa和Google Home)背后的AI以及垃圾郵件過(guò)濾器和仇恨語(yǔ)音檢測器等其他語(yǔ)言分類(lèi)器。”

該出版物探討了AI技術(shù)超越人類(lèi)努力的各種方法,例如檢測乳腺癌,玩星際爭霸和公開(kāi)辯論。在其他領(lǐng)域,抵抗仍然存在,盡管徒勞無(wú)功。在12月,據報道,人類(lèi)的司機仍在跳動(dòng)的整體認可,在無(wú)人駕駛的賽車(chē),盡管無(wú)人機賽的首席技術(shù)官聯(lián)盟預測,2023將是其中AI接管了一年。
研究人員希望,諸如TextFooler之類(lèi)的軟件的最終目標是使NLP系統更強大。

后記:對于那些從不列顛群島,中國和某些英聯(lián)邦國家以外的國家讀書(shū)的人來(lái)說(shuō),要“斯諾克”某個(gè)源于同名運動(dòng)的人,就是“讓一個(gè)人處于困境”。與美國相對應的是“落后于八球制”,盡管這當然會(huì )引起頭條。
