Munchkinland市長(cháng)提供了一套嚴格的標準,以確保東方的邪惡女巫真的死了。他希望在法律,道德,道德,精神,身體,積極,絕對,無(wú)可否認和可靠的情況下對其進(jìn)行核實(shí)。

對于人工智能結果來(lái)說(shuō),這也不是一個(gè)糟糕的過(guò)濾器。
人工智能已經(jīng)足夠成熟,我們可以用它的首字母縮略詞來(lái)稱(chēng)呼它。IDC的研究人員預計,未來(lái)幾年,政府和行業(yè)對人工智能的支出將以近50%的復合增長(cháng)率增長(cháng),到2021年達到520億美元。相比之下,他們預測全球云計算支出將達到1600億美元范圍。也就是說(shuō),人工智能與云計算的支出程度相同 - 大。
人工智能滲透到政府,而不僅僅是試點(diǎn)項目。它正在各種代理機構中開(kāi)展實(shí)際工作。
由于研究人員和埃森哲(Accenture)和德勤(Deloitte)等主要人工智能服務(wù)供應商的共同推廣,人工智能中的道德觀(guān)念已經(jīng)成為前沿和中心。使用純粹的技術(shù)方法,AI可以產(chǎn)生準確但錯誤的結果 - 根據算法所采用的數據準確,但在人與世界的現實(shí)中是錯誤的。
在這種情況下,道德歸結為一個(gè)簡(jiǎn)單的想法:訓練你的算法,使其與公正的,知識淵博的人知道或做的事情相匹配。對其進(jìn)行培訓,以便產(chǎn)生符合政策的結果。文獻中充滿(mǎn)了例子。IDC政府的研究主管Adelaide O'Brien給出了一個(gè)。對于某些數據集,算法可能會(huì )得出結論,所有醫生都是男性,所有護士都是女性。一個(gè)人不會(huì )想到這個(gè)概念,但是在給定有限訓練數據的情況下它可以用于A(yíng)I算法。
從這個(gè)意義上講,人工智能就像一頭斗牛犬。如果你瞥一眼,有些人會(huì )變成可愛(ài)的傻瓜,背上翻身。其他人變得咆哮,咬著(zhù)殺手。這取決于他們是如何訓練的。
IDC建議各機構采用基于三種載體的AI方法。首先,每個(gè)人都需要參與AI倡議。不要把它扔給IT商店。人工智能的應用要求人力資源,法律,政策,當然還要讓人們獲得兩分錢(qián)。IDC還包括總檢察長(cháng),保安人員和中央機構管理人員。有那么多的利害關(guān)系。
第二個(gè)向量涉及數據管理。它要求IDC稱(chēng)之為“強大的數據基礎,數據治理和分析。”使用不同的數據集和相關(guān)數據集來(lái)訓練AI算法。
在解釋人工智能計劃的預期目標及其運作方式時(shí),提出了三個(gè)問(wèn)責制和透明度要求。代碼執行時(shí)會(huì )發(fā)生什么應該是可解釋和可審計的。
所有這些都意味著(zhù)需要對人工智能系統進(jìn)行持續的人為監督。無(wú)論涉及的自動(dòng)化程度如何,網(wǎng)絡(luò )安全專(zhuān)家始終保持對網(wǎng)絡(luò )安全鏈中人員的需求。AI也是如此。
AI中的關(guān)鍵詞是人為的,人類(lèi)的反義詞。“人工智能”一詞背負著(zhù)古老的內涵和科幻小說(shuō)的色彩; 想想 Robby the Robot和Morborious博士。它是現實(shí),它只是軟件。如果處理不當,它可以有自己的想法。
