一份新的政府報告顯示,英國不需要專(zhuān)門(mén)的人工智能(AI)監管機構-但是,在公共部門(mén)的使用和道德規范方面還需要進(jìn)一步明確。

報告“人工智能與公共標準:公共生活標準委員會(huì )的審查”(pdf,未選擇加入,共78頁(yè))表示,盡管“擔心開(kāi)放”,但政府仍未做到“開(kāi)放”??駻I'(通過(guò)數據無(wú)法解釋的方法產(chǎn)生結果)在很大程度上被放錯了位置。
報告指出:“公共部門(mén)組織在使用AI方面不夠透明,很難找到政府目前在哪里使用機器學(xué)習。” “現在判斷公共部門(mén)機構是否成功維持責任制還為時(shí)過(guò)早。”
該報告提倡在將AI引入英國公共部門(mén)時(shí)使用Nolan原則(公職人員期望達到的七個(gè)道德標準),認為他們不需要重新制定。然而,在三個(gè)方面-開(kāi)放性,問(wèn)責制和客觀(guān)性-報告說(shuō),當前的標準不足。
報告提出的15項總體建議中,許多建議圍繞準備,道德操守和透明度:
公眾需要了解指導公共部門(mén)使用AI的高級道德原則(當前為FAST SUM原則,OECD AI原則和數據道德框架)
所有公共部門(mén)組織都應在使用AI進(jìn)行公共服務(wù)交付之前發(fā)布聲明,說(shuō)明如何使用AI符合相關(guān)法律和法規
不需要專(zhuān)門(mén)的AI監管者,但是應該成立監管保證機構來(lái)發(fā)現監管領(lǐng)域的空白,并就與AI相關(guān)的問(wèn)題向各個(gè)監管者和政府提供建議

政府應利用其在市場(chǎng)上的購買(mǎi)力設定采購要求,以確保為公共部門(mén)開(kāi)發(fā)AI解決方案的私營(yíng)公司符合正確的標準
政府應考慮如何將AI影響評估要求整合到現有流程中,以評估AI對公共標準的潛在影響
政府應為公共機構建立有關(guān)AI系統的聲明和披露的指南
IT服務(wù)提供商Insight的技術(shù)策略師Alex Guillen在報告發(fā)布后發(fā)表評論說(shuō),這些建議是可行的,但請注意。
“AI引入政府,同時(shí)遵循諾蘭原則應該是完全可能的,”吉蘭說(shuō)AI新聞。“首先,公共部門(mén)需要記住,目前,最有效地使用諸如人工智能和機器學(xué)習之類(lèi)的技術(shù)的作用是增強而不是替代人工。幫助公共部門(mén)的工人做出更明智的決定或采取更快的行動(dòng),不僅會(huì )改善公共服務(wù);這將有助于滿(mǎn)足接受調查的69%的人的意見(jiàn),他們說(shuō),如果人類(lèi)對任何決定做出最終判斷,他們對使用AI的公共機構會(huì )更滿(mǎn)意。

“但是,無(wú)論在公共部門(mén)如何使用AI,都必須將其視為員工,并且要獲得完成其工作所需的培訓和信息,”Guillen補充說(shuō)。與任何依賴(lài)數據的技術(shù)一樣,垃圾進(jìn)入意味著(zhù)垃圾掉。從警務(wù)中的面部識別到在NHS上幫助診斷和治療患者,人工智能需要正確的數據和正確的管理方式,以免造成超出其??解決范圍的問(wèn)題。
“否則,任何實(shí)施都會(huì )受到道德關(guān)注和數據偏見(jiàn)或歧視指控的困擾。”
