Google的新SEED RL框架將AI模型培訓成本降低了80%

2020-04-07 14:36:35    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻

Google的研究人員開(kāi)源了一個(gè)新框架,該框架可以在數千臺機器上擴大人工智能模型的培訓。

Google的新SEED RL框架將AI模型培訓成本降低了80%

谷歌在一份研究論文中指出,這是一個(gè)有前途的發(fā)展,因為它應該使AI算法訓練能夠以每秒數百萬(wàn)幀的速度執行,同時(shí)將這樣做的成本降低多達80%。

這種減少可能有助于為那些以前無(wú)法與AI等主要參與者競爭的初創(chuàng )公司提供公平的競爭環(huán)境。實(shí)際上,在云中訓練復雜的機器學(xué)習模型的成本令人驚訝地昂貴。

Synced最近的一份報告發(fā)現,華盛頓大學(xué)花費了25,000美元來(lái)訓練其Grover模型,該模型用于檢測和生成假新聞。同時(shí),OpenAI每小時(shí)支付256美元來(lái)訓練其GPT-2語(yǔ)言模型,而Google本身花費約6,912美元來(lái)訓練其BERT模型來(lái)進(jìn)行自然語(yǔ)言處理任務(wù)。

Google的新SEED RL框架將AI模型培訓成本降低了80%

SEED RL構建在TensorFlow 2.0框架之上,并通過(guò)利用圖形處理單元和張量處理單元的組合來(lái)集中模型推斷。然后使用訓練模型的學(xué)習器組件集中執行推斷。

目標模型的變量和狀態(tài)信息保持局部狀態(tài),并在過(guò)程的每個(gè)步驟中將對它們的觀(guān)察結果發(fā)送給學(xué)習者。SEED RL還使用基于開(kāi)源通用RPC框架的網(wǎng)絡(luò )庫來(lái)最大程度地減少延遲。

Google的新SEED RL框架將AI模型培訓成本降低了80%

谷歌的研究人員說(shuō),SEED RL的學(xué)習器組件可以擴展到數千個(gè)內核,而在環(huán)境中采取步驟與在模型上進(jìn)行推斷以預測下一步操作之間進(jìn)行迭代的參與者數量可以擴展到數千臺機器。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。