完全不完美:應對人工智能(AI)的“缺陷”

2020-06-16 14:39:32    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

飛機可接受的故障率是多少?好吧,這不是零 ……無(wú)論我們多么想相信其他方式。有一個(gè)數字,但它是一個(gè)很小的數字。在機器,計算機,人工智能等方面,它們是不完美的。會(huì )犯錯誤。推薦不當。人工智能永遠不會(huì )完美。這并不意味著(zhù)它們不提供價(jià)值。人們需要了解機器為什么會(huì )出錯,并據此設定自己的信念。這意味著(zhù)了解AI失敗的三個(gè)關(guān)鍵領(lǐng)域:隱性偏見(jiàn),不良數據和期望。

完全不完美:應對人工智能(AI)的“缺陷”

第一個(gè)挑戰是隱性偏見(jiàn),即人們對云的思想和行為的無(wú)意識感知??紤]一下,最近關(guān)于種族正義和警察暴行的抗議活動(dòng)以及“ 黑人生活至關(guān)重要”的有力信息?!陡2妓埂?Forbes)文章AI屈膝:法律下的改善平等待遇的行動(dòng),很好地說(shuō)明了隱性偏見(jiàn)如何在歧視中發(fā)揮作用,以及使用AI減少對我們的偏見(jiàn)有多困難(但并非不可能)執法和司法系統。人工智能向人學(xué)習。如果隱性偏見(jiàn)正在訓練中,則AI將學(xué)習該偏見(jiàn)。此外,當AI執行工作時(shí),該工作將反映這種偏見(jiàn)……即使該工作是為了社會(huì )公益。

以Allegheny家庭篩選工具為例。它旨在預測哪些福利兒童可能會(huì )受到養父母虐待的威脅。但是,此解決方案的最初推出面臨一些挑戰。當地的人類(lèi)服務(wù)部承認該工具可能存在種族和收入偏見(jiàn)。疏忽之類(lèi)的誘因常常被生活在貧困中的寄養父母與注意力不集中或虐待相聯(lián)系而混淆或誤解。自從學(xué)習了這些問(wèn)題以來(lái),采取了巨大的措施來(lái)減少e篩選工具中的隱性偏差。消除困難得多。當談到偏見(jiàn)時(shí),人們如何處理未知的未知數?如何處理社會(huì )環(huán)境?“正確”或“公平”行為是什么意思?如果人們無(wú)法識別,定義和解決這些問(wèn)題,那么他們將如何教機器?這是一個(gè)主要的驅動(dòng)程序,由于隱性偏見(jiàn),AI將是不完美的。

完全不完美:應對人工智能(AI)的“缺陷”

第二個(gè)挑戰是數據。數據是人工智能的動(dòng)力。機器通過(guò)大量的真實(shí)數據(即如何制定決策的規則,而不是決策本身)進(jìn)行訓練,并從大量大數據中進(jìn)行訓練,以學(xué)習數據中的模式和關(guān)系。如果我們的數據不完整或有缺陷,那么人工智能將無(wú)法很好地學(xué)習??紤]COVID-19。約翰·霍普金斯(John Hopkins),COVID追蹤項目,美國疾病控制中心(CDC)和世界衛生組織全部報告不同的數字。有了這樣的變化,人工智能很難從數據中閃現出有意義的模式,更不用說(shuō)找到那些隱藏的見(jiàn)解了。更具挑戰性的是,不完整或錯誤的數據該怎么辦?想象一下,教一個(gè)關(guān)于醫療保健的AI,但只提供有關(guān)女性健康的數據。這阻礙了我們如何在醫療保健中使用人工智能。

隨之而來(lái)的挑戰是人們可能會(huì )提供過(guò)多的數據。這可能無(wú)關(guān)緊要,毫無(wú)意義,甚至會(huì )分散注意力??紤]一下IBM是何時(shí)讓W(xué)atson閱讀《城市詞典》的,然后它無(wú)法區分何時(shí)使用普通語(yǔ)言還是使用語(yǔ)和罵人的單詞。問(wèn)題變得如此嚴重,以至于IBM必須從Watson的內存中刪除Urban Dictionary。同樣,一個(gè)AI系統需要聽(tīng)大約1億個(gè)單詞才能流利使用一種語(yǔ)言。然而,一個(gè)人類(lèi)孩子似乎只需要大約1500萬(wàn)個(gè)單詞就能流利。這意味著(zhù)我們可能不知道什么數據有意義。因此,AI培訓師可能實(shí)際上專(zhuān)注于多余的信息,這可能導致AI浪費時(shí)間,甚至更糟的是識別錯誤的模式。

第三個(gè)挑戰是期望。即使人類(lèi)犯錯,人們仍然希望機器是完美的。在醫療保健領(lǐng)域,專(zhuān)家估計誤診率可能高達20%,這意味著(zhù)五分之一的患者有可能被誤診??紤]到這些數據以及AI輔助診斷的錯誤率可能為十萬(wàn)分之一,大多數人仍然喜歡只看人類(lèi)醫生。為什么?給出的最常見(jiàn)原因之一是AI的誤診率太高(即使它比人類(lèi)醫生低得多)。人們期望AI完美。人們甚至期望人類(lèi)AI培訓師也很完美,甚至有可能變得更糟。

2016年3月23日,微軟發(fā)布了Twitter機器人Tay(對您的想法)。微軟已經(jīng)對AI進(jìn)行了培訓,使其達到了一名19歲美國女孩的語(yǔ)言水平和互動(dòng)能力。在一次盛大的社交實(shí)驗中,Tay被釋放到全世界。96,000條推文之后,微軟不得不在發(fā)布后約16小時(shí)關(guān)閉Tay,因為它轉變了性別歧視,種族主義并促進(jìn)了納粹主義。遺憾的是,有些人決定教Tay有關(guān)煽動(dòng)性語(yǔ)言的內容,以使其腐化。同時(shí),Microsoft并未考慮教Tay有關(guān)不當行為的信息,因此沒(méi)有任何理由(或理由)知道諸如不當行為和惡意意圖之類(lèi)的東西。盛大的社會(huì )實(shí)驗導致失敗,可悲的是,這可能更多地證明了人類(lèi)社會(huì ),而不是人工智能的局限性。

完全不完美:應對人工智能(AI)的“缺陷”

內隱的偏見(jiàn),不良的數據以及人們的期望表明,人工智能將永遠不會(huì )是完美的。這不是許多人希望擁有的神奇的解決方案。人工智能仍然可以為人類(lèi)做一些非凡的事情,如恢復失去肢體的活動(dòng)能力或在減少資源的情況下改善糧食生產(chǎn)。人們不應該折衷我們可以得到的價(jià)值。我們應該永遠記?。篈I就像我們一樣,是不完美的。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。