如今,人工智能和機器學(xué)習已成為技術(shù)乃至主流新聞中的熱門(mén)話(huà)題,但大多數人都將這些計算機在幕后所做的工作視為理所當然。他們驚人的壯舉需要以?xún)H計算機具備的速度瀏覽數以萬(wàn)計的相關(guān)數據。反過(guò)來(lái),這意味著(zhù)AI需要學(xué)習成千上萬(wàn)的數據,而情況并非總是如此。NVIDIA的研究部門(mén)現在在其創(chuàng )性對抗網(wǎng)絡(luò )或GAN中擁有一個(gè)里程碑,即使在呈現非常小的數據集的情況下,它也可以使AI進(jìn)行學(xué)習。

盡管GAN AI模型的名字叫“對抗性”,但實(shí)際上它使用了兩個(gè)合作網(wǎng)絡(luò )。例如,生成器創(chuàng )建圖像,而鑒別器將其與參考圖像進(jìn)行比較,以評估它們是否與樣式,對象或內容匹配。為此,鑒別器通常會(huì )饋入50,000到100,000范圍內的訓練圖像,因為如果不多,就會(huì )創(chuàng )建一個(gè)鑒別器,該鑒別器只會(huì )記住參考文獻,而無(wú)法區分合成圖像。
這種現象稱(chēng)為過(guò)擬合,可以部分地通過(guò)所謂的數據增強來(lái)解決,該方法僅涉及隨機旋轉,調整大小,裁剪或翻轉圖像以擴展參考數量。但是,這會(huì )創(chuàng )建一個(gè)生成器,該生成器將學(xué)習模仿變形的圖像,而不是學(xué)習如何正確地合成樣式和主題。
NVIDIA Research的自適應數據增強或ADA試圖通過(guò)在不同數據點(diǎn)之間分布數據增強來(lái)解決這兩個(gè)問(wèn)題。研究人員聲稱(chēng),這使他們能夠創(chuàng )建一個(gè)新的StyleGAN2模型,該模型能夠以比傳統GAN所需的訓練數據小10到20倍的訓練數據集學(xué)習藝術(shù)風(fēng)格。
NVIDIA Research的新AI的應用不僅限于為濾鏡合成藝術(shù)風(fēng)格,Adobe最有可能會(huì )感興趣的是增強已經(jīng)基于第一代StyleGAN的Photoshop的神經(jīng)濾鏡。當掃描或樣本太小而無(wú)法像新型疾病或病癥一樣有效時(shí),該AI也將能夠從醫學(xué)圖像中學(xué)習。
