中國AI公司Megvii開(kāi)源深度學(xué)習框架'MegEngine'

2020-03-31 16:18:33    來(lái)源:新經(jīng)網(wǎng)    作者:張艾俊

中國人工智能(MAI)公司Megvii今天宣布,它已開(kāi)源其深度學(xué)習框架MegEngine,該框架是新一代AI生產(chǎn)力平臺Brain ++的核心。

MegEngine是Megvii自己內部使用的算法訓練和推理引擎。它由三名Megvii實(shí)習生于2013年創(chuàng )立,并于2014年正式啟動(dòng)。

中國AI公司Megvii開(kāi)源深度學(xué)習框架

這個(gè)自主開(kāi)發(fā)的深度學(xué)習框架支持Megvii在過(guò)去六年中在國際AI競賽中的表現以及公司產(chǎn)品和業(yè)務(wù)的實(shí)施。目前,它為Megvii研究所的1,400多名AI開(kāi)發(fā)人員提供服務(wù)。

在新聞發(fā)布會(huì )上,Megvii的聯(lián)合創(chuàng )始人兼CTO Tang Wenbin正式宣布MegEngine的代碼是開(kāi)源的,并指出這是一組將培訓和推理,動(dòng)態(tài)和靜態(tài)集成在一起的工業(yè)級深度學(xué)習框架。 。

在傳統的深度學(xué)習研發(fā)中,從原型到生產(chǎn)部署的產(chǎn)品通常需要分別設計和調用訓練框架和推理框架。

這會(huì )導致在訓練和模型推斷的轉換過(guò)程中出現無(wú)法解釋的性能或準確性損失,這要求開(kāi)發(fā)人員進(jìn)行手動(dòng)優(yōu)化,并且無(wú)法追溯當算法部署在計算平臺上時(shí)發(fā)生的各種問(wèn)題。

MegEngine框架避免了此類(lèi)問(wèn)題。通過(guò)訓練與推理的集成,可以省去模型轉換的過(guò)程,可以直接推斷出訓練后的模型,并且可以跨設備調整模型的準確性。

同時(shí),MegEngine具有內置的自動(dòng)模型優(yōu)化功能和簡(jiǎn)化的流程,從而減少了手動(dòng)操作的機會(huì )并降低了出錯的可能性。

此外,MegEngine配備了Python和C ++接口,支持動(dòng)態(tài)圖,靜態(tài)圖一鍵轉換和混合編程,并且可以使用高級編程語(yǔ)言進(jìn)行圖優(yōu)化和圖編譯。

在運行時(shí)管理中,MegEngine具有執行流程和調度程序。它使用動(dòng)態(tài)和靜態(tài)內存分配來(lái)共存,并且可以通過(guò)自動(dòng)亞線(xiàn)性?xún)却婀芾韮?yōu)化器獲得更好的內存優(yōu)化結果。

在基礎設計中,MegEngine的計算內核與主流計算設備兼容,并支持多機多卡和分布式培訓。

為了解決模型再現困難的問(wèn)題,MegEngine支持導入PyTorch Module,可以針對計算機視覺(jué)任務(wù)對其進(jìn)行優(yōu)化。

目前,Megvii已在OpenI Qizhi社區和開(kāi)源社區GitHub(中國的新一代人工智能開(kāi)源平臺)上發(fā)布了MegEngine Alpha版本的源代碼。

開(kāi)發(fā)人員還可以使用MegEngine官方網(wǎng)站上的在線(xiàn)深度學(xué)習工具來(lái)自由調用計算能力,獲取最新的數據集和培訓腳本以及進(jìn)行簡(jiǎn)單的培訓和試用。

同時(shí),Megvii為MegEngine的開(kāi)發(fā)人員準備了算法預訓練模型ModelHub,以支持開(kāi)箱即用的開(kāi)發(fā)人員。

對于開(kāi)源之后的MegEngine框架的開(kāi)發(fā)計劃,Megvii透露它將在技術(shù)貢獻者的幫助下于6月推出beta版本。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。