研究人員檢查AI是否有自己的想法

2020-05-20 13:49:46    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

大多數人在個(gè)人和職業(yè)生活中每天都會(huì )遇到人工智能(AI)。人們不假思索,就要求Alexa將蘇打水添加到購物清單中,使用Google Maps進(jìn)行驅動(dòng),并向Snapchat添加過(guò)濾器-所有AI使用示例。但是,密蘇里州科技大學(xué)的一位研究人員正在研究什么是AI具有“頭腦”的證據,這將顯示一個(gè)人何時(shí)將AI行為視為道德上的錯誤。

研究人員檢查AI是否有自己的想法

密蘇里州科學(xué)與技術(shù)學(xué)院心理學(xué)的助理教授丹尼爾·尚克博士正在建立一種理論,即如果人們認為實(shí)體具有思想,那么這種觀(guān)點(diǎn)將決定他們賦予它什么精神權利和責任。他的研究將顯示一個(gè)人何時(shí)將AI行為視為道德上的錯誤,并可能有助于減少智能設備的拒絕并改善設備。

尚克說(shuō):“我想了解人們認為機器擁有思想的社會(huì )互動(dòng)以及他們認為機器是道德主體或受害者的情況。”

Shank的行為科學(xué)工作將這一理論應用于A(yíng)I代理和機器人等先進(jìn)機器。

“當我們確實(shí)意識到機器背后的想法時(shí),就會(huì )告訴我們有關(guān)技術(shù),能力和行為的一些信息,但最終它們會(huì )向我們揭示更多關(guān)于人類(lèi)的信息,” Shank解釋說(shuō)。“在這些相遇中,我們從情感上處理了非人類(lèi)技術(shù)與有思想之間的鴻溝,從本質(zhì)上感覺(jué)到了我們機器思維的方式。”

尚克(Shank)正在一項由美國陸軍研究辦公室(ARO)資助的為期三年的項目中,以更好地了解人們對AI的看法。ARO是美國陸軍作戰能力發(fā)展司令部陸軍研究實(shí)驗室的組成部分。

在研究的第一年,他收集了人們與AI的個(gè)人互動(dòng)的定性描述,這些互動(dòng)涉及道德上的錯誤或涉及認為AI有“很多頭腦”的人。Shank的研究發(fā)現,有31%的受訪(fǎng)者報告了個(gè)人信息泄露事件,有20%的受訪(fǎng)者報告了不良內容暴露事件,尚克認為,這都是由于它們頻繁出現在個(gè)人和家用設備上而引起的。

ARO社會(huì )與行為科學(xué)項目經(jīng)理Lisa Troyer博士說(shuō):“尚克博士的工作通過(guò)將長(cháng)期的認知和情感社會(huì )心理學(xué)理論與人與人互動(dòng)研究相結合,從而產(chǎn)生了對人與人團隊合作的新認識。” 。“他的研究已經(jīng)產(chǎn)生了關(guān)于自主代理人的道德觀(guān)念的作用以及這些觀(guān)念如何影響有效的人與代理團隊的科學(xué)見(jiàn)解。”

目前,在研究的第二年,他正在進(jìn)行受控實(shí)驗,在該實(shí)驗中,人工智能的思維水平會(huì )發(fā)生變化,然后人工智能會(huì )成為道德行為的實(shí)施者或受害者。Shank希望這將使他能夠在A(yíng)I與人類(lèi)之間進(jìn)行更直接的比較。到目前為止,他的研究發(fā)現,盡管諸如社交機器人之類(lèi)的某些AI可以承擔更大的社會(huì )角色,但人類(lèi)接受這些角色的AI可以增強對思維和情緒反應的感知。

他的研究的最后階段將使用調查和模擬來(lái)了解人們對AI的印象是否可以預測道德水平。

尚克說(shuō):“與網(wǎng)絡(luò )連接的技術(shù),經(jīng)過(guò)大數據培訓并在各種社交網(wǎng)絡(luò )平臺上運行的技術(shù)現在在我們的文化中很普遍。” “這些技術(shù),無(wú)論它們是否是適當的人工智能,在人們的生活中都是例行的,但并不是對這些技術(shù)的每次使用都會(huì )使我們將其視為有思想的。”

美德或罪惡是否可以歸因于A(yíng)I的問(wèn)題仍然取決于人類(lèi)是否愿意將機器判斷為具有道德品格。隨著(zhù)對AI倫理學(xué)和心理學(xué)的研究不斷發(fā)展,人們正在考慮研究諸如AI權利和AI道德之類(lèi)的新主題。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。