當硅谷企業(yè)家埃隆馬斯克沒(méi)有試圖建造火箭技術(shù)來(lái)殖民火星或革命地球上的能量?jì)Υ鏁r(shí),他擔心人工智能有朝一日會(huì )如何擺脫束縛并成為人類(lèi)的危險?,F在馬斯克的一些財富正在幫助資助一個(gè)新近公布的旨在控制人工智能的研究項目。

位于 波士頓的Future of Life Institute已經(jīng)向Elon Musk和開(kāi)放式慈善項目撥款700萬(wàn)美元,用于全球37個(gè)研究團隊。獲獎?wù)呙麊伟ㄩ_(kāi)發(fā)人工智能的團隊,可以向人類(lèi)解釋其決策,研究如何保持人工智能的經(jīng)濟影響,以及如何將基于人工智能的軍事武器置于人類(lèi)控制之下。此類(lèi)研究可以幫助社會(huì )繼續從智能人工智能的發(fā)展中受益,同時(shí)將潛在的危險降至最低。
“建立先進(jìn)的人工智能就像發(fā)射火箭一樣,”生命未來(lái)研究所的創(chuàng )始人之一Jaan Tallinn在一份聲明中說(shuō)。“第一個(gè)挑戰是最大化加速度,但一旦開(kāi)始加速,你還需要專(zhuān)注于轉向。”
大約300個(gè)研究項目申請了生命未來(lái)研究所的資助,后者在1月份發(fā)布了一封公開(kāi)信,要求進(jìn)行“保持人工智能健全和有益”的研究。這封信是由Facebook,IBM和微軟的AI研究人員簽署的。谷歌DeepMind技術(shù)的創(chuàng )始人,以及學(xué)術(shù)界,非營(yíng)??利組織和工業(yè)界的其他領(lǐng)域。據報道,這讓馬斯克向生命未來(lái)研究所捐贈了1000萬(wàn)美元。
但并非所有人都擔心時(shí)間旅行機器人會(huì )摧毀我們所有人。亞利桑那州立大學(xué)(Arizona State University)實(shí)踐教授G. Pascal Zachary最近為IEEE Spectrum 寫(xiě)了一篇關(guān)于人類(lèi)在塑造AI之前如何開(kāi)始塑造人工智能的文章。
Zachary說(shuō),人類(lèi)對殺手機器人的“黑暗幻想”傾向于分散更多相關(guān)問(wèn)題的注意力,例如AI如何影響就業(yè),機器人作家和藝術(shù)家如何改變人類(lèi)對創(chuàng )意內容的消費,以及誰(shuí)對自動(dòng)過(guò)程中的事故負責。
瀏覽一下新資助的人工智能研究清單,可以看出研究人員可以開(kāi)始解決其中的一些問(wèn)題。生命研究所的 未來(lái)采取類(lèi)似于扎卡里的立場(chǎng),因為它強調了好萊塢的“終結者”幻想與現實(shí)之間的區別。
“終結者情景的危險并不是它會(huì )發(fā)生,而是會(huì )分散未來(lái)AI所帶來(lái)的真正問(wèn)題”,生命未來(lái)研究所所長(cháng)Max Tegmark說(shuō)。“我們保持專(zhuān)注,今天的資助支持的37支隊伍應該有助于解決這些真正的問(wèn)題。”
