隨著(zhù)我們進(jìn)入認知計算的新時(shí)代,并試圖從日益龐大的數據集中收集信息,今天的許多計算機并沒(méi)有經(jīng)過(guò)優(yōu)化來(lái)處理如此巨大的工作量。但IBM科學(xué)家開(kāi)發(fā)并發(fā)表在《自然電子》(Nature Electronics)雜志上的一種新的混合概念,可能使運行分析和機器學(xué)習應用程序以及訓練人工智能(AI)系統變得容易得多。

大多數計算機都是基于馮·諾依曼架構設計的,這種架構要求數據在處理單元和存儲單元之間進(jìn)行傳輸——根據IBM Research周二發(fā)表的一篇有關(guān)論文的博客文章,這是一個(gè)效率低下的過(guò)程。
IBM的新概念,稱(chēng)為混合精度內存計算,將馮諾依曼計算機與計算內存單元相結合。在本設計中,計算內存單元執行大部分計算任務(wù),而馮·諾伊曼計算機提高了手頭解決方案的準確性。
正如我們的姊妹站點(diǎn)ZDNet所指出的,這種方法可以為IBM提供針對Microsoft和谷歌一直在尋找的高性能和機器學(xué)習應用程序的硬件加速器的解決方案。
混合精度的內存計算依賴(lài)于一種叫做相變存儲器(PCM)的設備,它可以通過(guò)編程達到一定的傳導水平。ZDNet指出,PCM單元可以處理大部分的大容量數據處理,而不需要將數據傳輸到CPU或GPU,這使得處理速度更快,能耗更低。
“這樣的計算可以在不犧牲整體計算精度的情況下,部分使用計算內存來(lái)執行,這一事實(shí)為高效、快速的大規模數據分析開(kāi)辟了令人興奮的新途徑,”IBM研究員、論文的合著(zhù)者伊萬(wàn)格洛斯·埃萊夫特里奧(Evangelos Eleftheriou)在帖子中寫(xiě)道。
他寫(xiě)道:“這種方法克服了當今馮•諾伊曼架構的一個(gè)關(guān)鍵挑戰,在馮•諾伊曼架構中,海量數據傳輸已經(jīng)成為最耗能的部分。”“這樣的解決方案需求量很大,因為如果要使用標準技術(shù),分析我們生成的不斷增長(cháng)的數據集將迅速將計算負載增加到百億億次。”
需要注意的是,這項研究仍然是新的,而且根據ZDNet, IBM的原型內存芯片需要達到千兆字節的內存才能用于數據中心規模的應用程序,而不是當前的一兆字節。但據ZDNet報道,IBM計劃通過(guò)構建更大的PCM設備陣列,或讓多個(gè)PCM設備同時(shí)運行來(lái)實(shí)現這一目標。
