微軟科學(xué)家說(shuō)負責任的人工智能取決于模型的可視性

2020-03-24 13:17:00    來(lái)源:    作者:

人工智能的興起已經(jīng)警告人們有偏見(jiàn),欺騙性和惡意的應用程序。

微軟公司高級機器學(xué)習科學(xué)家和云倡導者弗朗西斯卡·拉澤里(Francesca Lazzeri)表示,但是有一種方法可以避免偏差并確保負責任的AI 。

微軟科學(xué)家說(shuō)負責任的人工智能取決于模型的可視性

“在我們的團隊中,我們有一個(gè)稱(chēng)為“可解釋性工具包”的工具包,它實(shí)際上是一種開(kāi)放機器學(xué)習模型并了解不同變量,不同數據點(diǎn)之間的不同關(guān)系的方式,” Lazzeri說(shuō)。“這是一種簡(jiǎn)單的方法,您可以了解為什么您的模型可以為您提供特定的結果。”

除了在Microsoft工作之外,Lazzeri還是博士的導師。和麻省理工學(xué)院的博士后學(xué)生。

在佛羅里達州奧蘭多舉行的Microsoft Ignite活動(dòng)中,她與SCU Miniman 和Rebecca Knight交談,后者是SiliconANGLE Media的移動(dòng)直播工作室的聯(lián)合主持人。他們討論了負責任的AI的發(fā)展道路以及Microsoft最近在機器學(xué)習中發(fā)布的版本。

微軟科學(xué)家說(shuō)負責任的人工智能取決于模型的可視性

Lazzeri說(shuō),在A(yíng)I應用程序中發(fā)現的大多數偏差問(wèn)題都始于數據。她說(shuō):“您必須確保數據足以代表您的AI應用程序所針對的總體。” “大多數時(shí)候,客戶(hù)只是使用自己的數據。查看外部數據類(lèi)型也很有幫助。”

避免問(wèn)題的另一種方法是與業(yè)務(wù)和數據專(zhuān)家一起檢查模型。“有時(shí)候我們有數據科學(xué)家在孤島上工作;他們并沒(méi)有真正傳達他們在做什么,” Lazzeri指出。“您必須始終確保數據科學(xué)家,機器學(xué)習科學(xué)家與數據專(zhuān)家,業(yè)務(wù)專(zhuān)家以及每個(gè)人都在密切合作……以確保我們了解我們在做什么。”

對于剛開(kāi)始機器學(xué)習之旅的公司,第一步是確定必須回答的業(yè)務(wù)問(wèn)題,Lazzeri解釋說(shuō):“一旦想到了這個(gè)問(wèn)題,第二步就是了解他們是否擁有正確的數據支持該過(guò)程所需的內容。”

微軟科學(xué)家說(shuō)負責任的人工智能取決于模型的可視性

在那之后,重要的是能夠將業(yè)務(wù)問(wèn)題轉換為機器學(xué)習問(wèn)題。“而且,最后,您始終必須確保能夠部署此機器學(xué)習模型,以便為部署以及我們所謂的操作部分做好準備,” Lazzeri說(shuō)。“這確實(shí)是您要在機器學(xué)習解決方案中增加業(yè)務(wù)價(jià)值的時(shí)刻。”

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。