Face book公司今天更新了其流行的人工智能軟件框架Py Torch,支持新功能,使更無(wú)縫的人工智能模型部署到移動(dòng)設備。

Py Torch被開(kāi)發(fā)人員用來(lái)研究和構建軟件應用程序的人工智能模型,然后由于它與領(lǐng)先的公共云平臺的集成,這些應用程序直接投入生產(chǎn)。 Py Torch最初是由Face book的AI研究小組作為編程語(yǔ)言Python的函數機器學(xué)習庫構建的。
它主要用于深度學(xué)習,這是機器學(xué)習的一個(gè)分支,試圖模仿人腦的功能方式。 它在語(yǔ)言翻譯、圖像和語(yǔ)音識別等領(lǐng)域取得了重大突破。
在移動(dòng)設備上運行機器學(xué)習的能力是很重要的,因為應用程序可以從具有較低的延遲中顯著(zhù)受益。 如果應用程序可以自己處理數據而不將其發(fā)送到云中,那么它畢竟會(huì )使一切運行更加順利。
這就是Face book在最新發(fā)布的Py Torch中試圖解決的問(wèn)題,支持從Python到部署在iOS和Android上的“端到端工作流”。 Face book的Py Torch團隊在一篇博客文章中表示,這仍然是一個(gè)實(shí)驗特性,還有很多工作要做,以提高機器學(xué)習模型在移動(dòng)中央處理單元和圖形處理單元上的性能。

第二個(gè)實(shí)驗特性旨在在構建機器學(xué)習應用程序時(shí)更有效地利用服務(wù)器端和設備上的計算資源。 增加對“八位模型量化”的支持是為了提高推理過(guò)程中的性能,即當一個(gè)經(jīng)過(guò)訓練的機器學(xué)習模型得出結論或進(jìn)行預測時(shí)。 量化是指用于在降低精度的情況下執行計算和存儲的技術(shù)。
“為了支持在服務(wù)器和邊緣設備上更有效地部署,Py火炬1.3現在支持使用熟悉的熱切模式PythonAPI的8位模型量化,”Py火炬團隊寫(xiě)道。
Py Torch還獲得了一種新的工具,名為Captum,該工具旨在幫助開(kāi)發(fā)人員更好地理解為什么他們的機器學(xué)習模型得出一定的結論。
“Captum提供了最先進(jìn)的工具來(lái)理解特定神經(jīng)元和層的重要性,并影響模型的預測,”Py火炬小組寫(xiě)道。 “Captum的算法包括集成梯度、電導、平滑梯度和VAR梯度以及深度提升。”
其他更新包括發(fā)布探測器2目標檢測庫,以幫助計算機視覺(jué)研究。 此外,Face book還宣布啟動(dòng)一個(gè)名為CrypTen的新的基于社區的研究項目,該項目將探索隱私和安全技術(shù)的實(shí)現,如安全多方計算、可信執行環(huán)境和Py Torch的設備上計算。
最后,Face book表示,Py Torch現在支持GoogleCloud的張量處理單元,以便能夠更快速地開(kāi)發(fā)和訓練機器學(xué)習模型:“當組裝成稱(chēng)為Cloud TPU Pods的多軌ML超級計算機時(shí),這些TPU可以在幾分鐘或幾小時(shí)內完成ML工作量;在其他系統中,這些工作量以前需要幾天或幾周。

星座研究公司的分析師霍爾格·穆勒(Holger Mueller)告訴硅谷,今天的更新顯示,Face book在Py Torch及其相關(guān)服務(wù)方面取得了堅實(shí)的進(jìn)展。
穆勒說(shuō):“但關(guān)鍵問(wèn)題是,在谷歌的TensorFlow方面,Py Torch的差距有多大? “兩者都在移動(dòng)目標,開(kāi)發(fā)商的采納將提供答案。
