公眾陷入與大數據和人工智能的混亂,愛(ài)恨交織的關(guān)系。新聞中令人興奮的新技術(shù)和數據輕重重重的影響了雙方。隨著(zhù)有關(guān)道德和軟件自主性的難題日益迫切,共識仍然難以捉摸。

麻省理工學(xué)院工程系統教授斯圖爾特·馬德尼克(Stuart Madnick)(如圖)說(shuō):“道德問(wèn)題的麻煩在于,他們往往沒(méi)有一個(gè)很好的明確答案 。” 這是因為幾乎沒(méi)有玫瑰在A(yíng)I中沒(méi)有刺,也沒(méi)有潛在的陷阱而沒(méi)有回報。我們都喜歡預見(jiàn)下一個(gè)問(wèn)題的應用程序中的智能算法。他們需要大量的數據集進(jìn)行訓練。普通消費者認為,這對我來(lái)說(shuō)很好,只要這不是我的數據即可。
Madnick采訪(fǎng)過(guò) 戴夫Vellante表示 和保羅·吉林,theCUBE,SiliconANGLE Media的移動(dòng)即時(shí)串流工作室共同主辦的MIT CDOIQ研討會(huì )在劍橋期間。他們討論了面臨AI的制造商和消費者(看到完整的采訪(fǎng)成績(jì)單硬倫理問(wèn)題在這里)。

事實(shí)是,根據Madnick的說(shuō)法,沒(méi)有大數據或AI不會(huì )損害數據隱私或主權。我們仍然沒(méi)有經(jīng)驗來(lái)判斷可接受的成本效益比。
麥德尼克說(shuō):“幾乎我們所做的每項研究都涉及到此類(lèi)[道德]問(wèn)題,而且人們都在投票,幾乎總是將其分散在各個(gè)方面,因為其中任何一個(gè)都是錯誤的決定。” “那么哪個(gè)錯誤的決定最不糟糕?”
Madnick指出,除了隱私問(wèn)題之外,有關(guān)自動(dòng)駕駛人工智能的問(wèn)題也越來(lái)越多地涉及自動(dòng)駕駛汽車(chē)的方法。在麻省理工學(xué)院,麥尼克(Madnick)向學(xué)生講授技術(shù)倫理學(xué)。自動(dòng)駕駛的主題提出了一些難題。
例如,效用理論指出,如果汽車(chē)必須撞到一個(gè)人或多人,則最好撞到最少的人。以自動(dòng)駕駛汽車(chē)中的駕駛員面對可能發(fā)生的碰撞為例??梢詫⑵?chē)編程為撞到墻上,可能會(huì )殺死駕駛員,一名帶嬰兒車(chē)過(guò)馬路的婦女或成群的三名男子。第一個(gè)選擇是殺死汽車(chē)駕駛員,第二個(gè)選擇是女人和嬰兒,最后一個(gè)是三個(gè)男人。

Madnick解釋說(shuō),全班通常都不會(huì )對這種安排感到100%滿(mǎn)意。顯然,在A(yíng)I中仍有很多道德方面的問(wèn)題需要解決。
