紐約大學(xué)研究中心AI Now Institute研究人工智能對社會(huì )的影響,他說(shuō),隨著(zhù)這些技術(shù)的廣泛應用,負面影響開(kāi)始顯現。

研究人員寫(xiě)道,這份長(cháng)達93頁(yè)的報告審查了人們所關(guān)注的問(wèn)題:“從支持AI的工人管理,對福利和社會(huì )服務(wù)的算法確定,對移民和代表性不足的社區的監視和跟蹤”。
“顯而易見(jiàn)的是,在不同的領(lǐng)域和環(huán)境中,人工智能正在擴大不平等,將信息和控制權移交給已經(jīng)擁有權力的人,而進(jìn)一步削弱那些沒(méi)有權力的人的權力。”
研究人員說(shuō),“沒(méi)有適當的保障措施或責任結構,” 人工智能系統正在醫療,教育,就業(yè),刑事司法等領(lǐng)域中部署。

報告說(shuō),政府和企業(yè)應“在敏感的社會(huì )和政治環(huán)境中”停止使用面部識別,直到更好地理解風(fēng)險為止,并且應禁止使用“影響識別”或計算機技術(shù)讀取情緒這一子集。懷疑它是否有效。
報告稱(chēng),“不應允許情感識別在有關(guān)人的生活的重要決定中發(fā)揮作用,例如,面試或雇用誰(shuí),工作,保險價(jià)格,患者痛苦評估或學(xué)生在學(xué)校的表現”。

它還呼吁科技工作者“有權知道自己正在建造什么,并有權反對其工作的不道德或有害使用。”
AI Now報告稱(chēng),使用先進(jìn)技術(shù)的醫療組織需要實(shí)施數據保護政策,并允許人們“肯定批準”機會(huì )退出研究或治療,以及使用其醫療信息退出研究。
研究人員更廣泛地說(shuō),人工智能行業(yè)需要做出“結構性改變”,以確保算法不會(huì )增強種族主義,偏見(jiàn)或缺乏多樣性。
報告稱(chēng):“人工智能行業(yè)非常相似,這在很大程度上是因為它對待婦女,有色人種,性別少數群體和其他代表性不足的群體。”
報告稱(chēng),監管AI系統的工作正在進(jìn)行中,但“被政府采用AI系統進(jìn)行監視和控制的速度超過(guò)了”。
研究人員寫(xiě)道:“盡管越來(lái)越多的公眾關(guān)注和監管行動(dòng),但是面部識別和其他危險的AI技術(shù)的推出幾乎沒(méi)有放緩。”
“全球范圍內所謂的“智慧城市”項目正在以營(yíng)利為目的的技術(shù)公司鞏固對公民生活的控制權,使他們負責管理重要的資源和信息。”
