專(zhuān)家表示沒(méi)有任何一項政策可以管理所有人工智能

2019-11-20 17:15:09    來(lái)源:    作者:

人工智能無(wú)處不在。移動(dòng)地圖通過(guò)交通為我們提供路線(xiàn),算法現在可以駕駛汽車(chē),虛擬助手可以幫助我們在工作和生活之間平穩切換,而智能代碼則可以使我們的下一首新歌呈現。

但是,人工智能也可能被證明是危險的。特斯拉首席執行官埃隆·馬斯克(Elon Musk)曾警告說(shuō),有偏見(jiàn),不受監督和不受監管的AI可能是“我們作為文明面臨的最大風(fēng)險”。相反,AI專(zhuān)家擔心自動(dòng)化系統可能會(huì )吸收人類(lèi)程序員的偏見(jiàn)。而且,當將偏見(jiàn)編碼到支持AI的算法中時(shí),將幾乎無(wú)法消除。

AI偏見(jiàn)的例子是豐富的:在2015年7月的谷歌照片的AI系統標記黑人大猩猩 ; CNET在2018年3月報道說(shuō),亞馬遜和谷歌的智能設備似乎難以理解口音 ; 2018年10月,亞馬遜破壞了以人工智能為動(dòng)力的工作招聘工具,該工具似乎歧視婦女; 2019年5月,聯(lián)合國教育,科學(xué)及文化組織(UNESCO)的一份報告發(fā)現,人工智能個(gè)人助理可以強化有害的性別定型觀(guān)念。

為了更好地理解AI的治理方式,以及如何防止人類(lèi)的偏見(jiàn)改變我們每天依賴(lài)的自動(dòng)化系統,CNET與位于舊金山的Salesforce AI專(zhuān)家Kathy Baxter和Richard Socher進(jìn)行了交談。Baxter說(shuō),調節技術(shù)可能具有挑戰性,并且該過(guò)程將需要細微差別。

她說(shuō),該行業(yè)正在努力開(kāi)發(fā)“負責任的,值得關(guān)注的,值得關(guān)注的,可以保護人權的人工智能”。“我們確保[該程序]不侵犯這些人權。它還必須透明。它必須能夠向最終用戶(hù)解釋它在做什么,并為他們提供機會(huì )做出明智的選擇。它。”

Baxter說(shuō),Salesforce和其他技術(shù)公司正在針對AI數據模型中使用的數據標準制定跨行業(yè)指南。“我們將顯示模型中使用的因素,例如年齡,種族,性別。如果您使用的是受保護的數據類(lèi)別之一,我們將升旗。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。