對于大型團體設置(例如,在線(xiàn)論壇和社交媒體),我們做出的選擇對我們來(lái)說(shuō)似乎很自然。但是我們的決策過(guò)程比我們所知道的更為復雜。因此,研究人員一直在努力了解看似直觀(guān)的過(guò)程背后的原因。

現在,華盛頓研究的新大學(xué)發(fā)現,在大集團基本上是匿名成員,人們做出基于“模型選擇的頭腦組”和的選擇會(huì )如何影響理論頭腦的演變模擬。
借助植根于人工智能和機器人技術(shù)的數學(xué)框架,威斯康星大學(xué)的研究人員能夠揭示一個(gè)人如何在群體中做出選擇的過(guò)程。而且,他們還發(fā)現,與傳統的描述方法相比,他們能夠更頻繁地預測一個(gè)人的選擇。結果發(fā)表在11月27日星期三的《科學(xué)進(jìn)展》上。
威斯康星大學(xué)Paul G. Allen計算機科學(xué)學(xué)院的CJ和Elizabeth Hwang教授,資深作者Rajesh Rao說(shuō):“鑒于社交媒體在指示人類(lèi)如何作為特定群體的成員方面起著(zhù)越來(lái)越重要的作用,我們的結果特別有趣。”和工程學(xué)以及神經(jīng)技術(shù)中心聯(lián)合主任。
“在在線(xiàn)論壇和社交媒體小組中,匿名小組成員的共同行動(dòng)會(huì )影響您的下一個(gè)行動(dòng),相反,您自己的行動(dòng)會(huì )改變整個(gè)小組的未來(lái)行為,” Rao說(shuō)。

研究人員希望找出在此類(lèi)環(huán)境中起作用的機制。
在論文中,他們解釋了人類(lèi)的行為依賴(lài)于對環(huán)境未來(lái)狀態(tài)的預測(對可能發(fā)生的情況的最佳猜測),并且該環(huán)境的不確定性在社會(huì )環(huán)境中“急劇增加”。為了預測當另一個(gè)人參與時(shí)可能發(fā)生的情況,一個(gè)人建立了另一個(gè)人的思想模型,稱(chēng)為思想理論,然后使用該模型來(lái)模擬一個(gè)人自己的行為將如何影響另一個(gè)“思想”。
盡管此行為對于一對一的交互作用很好,但是要在大型組中為單個(gè)思維建模的能力要困難得多。這項新的研究表明,即使不知道其他人的身份,人們也可以創(chuàng )建代表該人“思想”的平均模型。
為了研究團隊決策中出現的復雜性,研究人員集中在“志愿者的困境任務(wù)”上,其中一些人忍受了一些使整個(gè)團隊受益的成本。他們在論文中解釋說(shuō),任務(wù)的例子包括守衛職責,獻血和在公共場(chǎng)所向前邁進(jìn)以制止暴力行為。
為了模仿這種情況并研究行為和大腦反應,研究人員將受試者逐個(gè)放入MRI,然后讓他們玩游戲。在稱(chēng)為公共物品游戲的游戲中,對象對公共金錢(qián)的貢獻會(huì )影響其他人,并確定團隊中每個(gè)人的回報。一個(gè)受試者可以決定捐獻一美元,也可以決定“搭便車(chē)”,也就是說(shuō),不希望獲得報酬,而是希望其他人也可以貢獻力量。

如果總捐款額超過(guò)預定數額,每個(gè)人都將獲得兩美元。受試者與他們從未見(jiàn)過(guò)的其他人進(jìn)行了數十輪比賽。對于這個(gè)主題不為人知的是,其他的實(shí)際上是由模仿先前人類(lèi)玩家的計算機模擬的。
“我們幾乎可以瞥見(jiàn)人類(lèi)的思想,并分析其做出集體決策的潛在計算機制,”主要作者艾倫學(xué)院的博士生Koosha Khalvati說(shuō)。“當與大量人進(jìn)行互動(dòng)時(shí),我們發(fā)現人們試圖基于普通的小組成員的意圖模型來(lái)預測未來(lái)的小組互動(dòng)。重要的是,他們還知道自己的行為會(huì )影響小組。例如,他們意識到即使他們對其他人都是匿名的,他們的自私行為也會(huì )減少小組在未來(lái)的互動(dòng)中的協(xié)作,并可能帶來(lái)不希望的結果。”
在他們的研究中,研究人員能夠為這些動(dòng)作分配數學(xué)變量,并創(chuàng )建自己的計算機模型來(lái)預測人在游戲中可能做出的決定。他們發(fā)現,他們的模型比強化學(xué)習模型更能預測人的行為(也就是說(shuō),當一個(gè)參與者根據上一輪的支付方式而不論其他參與者如何學(xué)習而做出貢獻時(shí))以及更傳統的描述性方法。
鑒于該模型為人類(lèi)行為提供了定量解釋?zhuān)琑ao想知道在構建與人類(lèi)互動(dòng)的機器時(shí)是否有用。
他說(shuō):“在機器或軟件與大批人員交互的情況下,我們的結果可能會(huì )為AI帶來(lái)一些教訓。” “一臺模擬“一群人的思想”并模擬其行為如何影響該群的機器可能會(huì )導致更人性化的AI,其行為會(huì )更好地與人類(lèi)的價(jià)值觀(guān)保持一致。”
