人工智能為企業(yè)提供了承諾,使其能夠使用復雜的算法來(lái)處理大量數據,發(fā)現模式,返回洞察力,并幫助推動(dòng)更快更好的業(yè)務(wù)決策。通過(guò)神經(jīng)網(wǎng)絡(luò ),機器學(xué)習和深度學(xué)習獲得的圖像識別,自然語(yǔ)言處理,翻譯和其他功能將幫助高管們開(kāi)辟新的收入來(lái)源,提高效率,降低成本并推動(dòng)自動(dòng)化。

與此同時(shí),AI被視為各種各樣的“黑匣子”。數據在一端,調查結果,決策和見(jiàn)解從另一端出來(lái),但是對于如何達到這些結果幾乎沒(méi)有可見(jiàn)性,并且隨著(zhù)企業(yè)和消費者都學(xué)會(huì )更多地依賴(lài)人工智能技術(shù),人們越來(lái)越擔心調查結果存在偏差。神經(jīng)網(wǎng)絡(luò )與進(jìn)入的數據一樣好,并且數據可能會(huì )受到輸入數據的人的影響。
將透明度帶到前臺
IBM官員現在提供基于云的服務(wù),旨在檢測AI中的偏差,并為AI驅動(dòng)的系統決策提供透明度。該服務(wù)在IBM Cloud上運行,可用于管理來(lái)自各種技術(shù)供應商的AI系統。與此同時(shí),該公司將向開(kāi)源社區發(fā)布一個(gè)工具包,其中包括其他人可用于檢測和減輕AI偏差的技術(shù)和教育工具。
IBM Watson的首席架構師兼IBM研究員Ruchir Puri表示,隨著(zhù)行業(yè)采用該技術(shù),能夠檢測偏差并更好地了解AI系統的決策過(guò)程至關(guān)重要。
“為了讓人工智能蓬勃發(fā)展,企業(yè)要從中獲益,高管們需要信任他們的人工智能系統,”普里在公司博客上寫(xiě)道。“他們需要能力來(lái)管理這些系統,并檢測和減輕偏見(jiàn)。關(guān)鍵 - 通常是法律要求 - 透明度被納入人工智能決策。例如,在保險業(yè)中,索賠理算人可能需要向客戶(hù)解釋為什么他們的自動(dòng)索賠被自動(dòng)處理系統拒絕。
“現在是時(shí)候開(kāi)始打開(kāi)人工智能的黑匣子,讓組織對他們管理這些系統的能力充滿(mǎn)信心,并解釋如何做出決策。”
隨著(zhù)人工智能的新信任和透明度功能的出現,認知和人工智能系統和軟件的支出繼續迅速增加。IDC分析師本月表示,認知和人工智能系統的支出今年將達到240億美元,到2022年將增長(cháng)到776億美元,在此期間每年平均增長(cháng)37.3%。
大量公司轉向人工智能采用
IBM自己的研究發(fā)現,82%的企業(yè)正在考慮或正在推進(jìn)人工智能的采用,重點(diǎn)是創(chuàng )造收入,而60%的企業(yè)擔心人工智能涉及的責任問(wèn)題。IBM發(fā)現,63%的人缺乏利用AI的技能。
IBM的自動(dòng)化服務(wù)與從流行的機器學(xué)習框架和AI環(huán)境構建的模型一起工作,如Watson,TensorFlow,SparkML,來(lái)自Amazon Web Services(AWS)的Sagemaker和Microsoft的AzureML。IBM官員表示,用戶(hù)還可以自定義服務(wù)的軟件,以更好地適應其組織的細節。
該服務(wù)可以解釋如何做出決策并在做出決策時(shí)檢測偏差,并自動(dòng)推薦可以添加到正在運行的模型中的數據,以減輕發(fā)現的偏差。
該服務(wù)可以解釋決策中的因素,是否將決策推向一個(gè)方向,并記錄模型的準確性,性能和公平性。此外,AI系統的譜系可以跟蹤客戶(hù)服務(wù),監管和合規性原因。所有這些都可以通過(guò)可視化儀表板訪(fǎng)問(wèn)。
人工智能與培訓一樣好
“公平是企業(yè)將AI部署到根據用戶(hù)信息做出決策的應用程序中的關(guān)鍵問(wèn)題,”Puri寫(xiě)道。“對任何一組用戶(hù)表現出偏見(jiàn)所造成的聲譽(yù)損害和法律影響可能對企業(yè)造成嚴重損害。AI模型與用于訓練它們的數據一樣好,開(kāi)發(fā)具有代表性的有效訓練數據集非常具有挑戰性。“
即使在訓練期間發(fā)現偏見(jiàn),“該模型仍可能在運行時(shí)出現偏差。這可能是由于不同權重分配給不同特征而導致的優(yōu)化不協(xié)調,“他寫(xiě)道。
公司官員表示,面向開(kāi)源社區的IBM AI Fairness 360工具包包括初始九種算法,代碼和三種教程,供數據科學(xué)家,學(xué)者和研究人員使用。將來(lái)會(huì )添加更多工具和教程。
