中國人工智能(MAI)公司Megvii今天宣布,它已開(kāi)源其深度學(xué)習框架MegEngine,該框架是新一代AI生產(chǎn)力平臺Brain ++的核心。
MegEngine是Megvii自己內部使用的算法訓練和推理引擎。它由三名Megvii實(shí)習生于2013年創(chuàng )立,并于2014年正式啟動(dòng)。

這個(gè)自主開(kāi)發(fā)的深度學(xué)習框架支持Megvii在過(guò)去六年中在國際AI競賽中的表現以及公司產(chǎn)品和業(yè)務(wù)的實(shí)施。目前,它為Megvii研究所的1,400多名AI開(kāi)發(fā)人員提供服務(wù)。
在新聞發(fā)布會(huì )上,Megvii的聯(lián)合創(chuàng )始人兼CTO Tang Wenbin正式宣布MegEngine的代碼是開(kāi)源的,并指出這是一組將培訓和推理,動(dòng)態(tài)和靜態(tài)集成在一起的工業(yè)級深度學(xué)習框架。 。
在傳統的深度學(xué)習研發(fā)中,從原型到生產(chǎn)部署的產(chǎn)品通常需要分別設計和調用訓練框架和推理框架。
這會(huì )導致在訓練和模型推斷的轉換過(guò)程中出現無(wú)法解釋的性能或準確性損失,這要求開(kāi)發(fā)人員進(jìn)行手動(dòng)優(yōu)化,并且無(wú)法追溯當算法部署在計算平臺上時(shí)發(fā)生的各種問(wèn)題。
MegEngine框架避免了此類(lèi)問(wèn)題。通過(guò)訓練與推理的集成,可以省去模型轉換的過(guò)程,可以直接推斷出訓練后的模型,并且可以跨設備調整模型的準確性。
同時(shí),MegEngine具有內置的自動(dòng)模型優(yōu)化功能和簡(jiǎn)化的流程,從而減少了手動(dòng)操作的機會(huì )并降低了出錯的可能性。
此外,MegEngine配備了Python和C ++接口,支持動(dòng)態(tài)圖,靜態(tài)圖一鍵轉換和混合編程,并且可以使用高級編程語(yǔ)言進(jìn)行圖優(yōu)化和圖編譯。
在運行時(shí)管理中,MegEngine具有執行流程和調度程序。它使用動(dòng)態(tài)和靜態(tài)內存分配來(lái)共存,并且可以通過(guò)自動(dòng)亞線(xiàn)性?xún)却婀芾韮?yōu)化器獲得更好的內存優(yōu)化結果。
在基礎設計中,MegEngine的計算內核與主流計算設備兼容,并支持多機多卡和分布式培訓。
為了解決模型再現困難的問(wèn)題,MegEngine支持導入PyTorch Module,可以針對計算機視覺(jué)任務(wù)對其進(jìn)行優(yōu)化。
目前,Megvii已在OpenI Qizhi社區和開(kāi)源社區GitHub(中國的新一代人工智能開(kāi)源平臺)上發(fā)布了MegEngine Alpha版本的源代碼。
開(kāi)發(fā)人員還可以使用MegEngine官方網(wǎng)站上的在線(xiàn)深度學(xué)習工具來(lái)自由調用計算能力,獲取最新的數據集和培訓腳本以及進(jìn)行簡(jiǎn)單的培訓和試用。
同時(shí),Megvii為MegEngine的開(kāi)發(fā)人員準備了算法預訓練模型ModelHub,以支持開(kāi)箱即用的開(kāi)發(fā)人員。
對于開(kāi)源之后的MegEngine框架的開(kāi)發(fā)計劃,Megvii透露它將在技術(shù)貢獻者的幫助下于6月推出beta版本。
