柯文
內存計算技術迎來一次重大突破。近日,IBM研究團隊宣布發明了一種可以運行在100萬個相變內存上的無監督式機器學習算法,并且成功地在一系列未知數據流中發現了時間相關性。與目前最先進的傳統計算機相比,這種內存計算原型技術有望在計算速度和能耗利用效率方面提升200倍,非常適合實現人工智能(AI)應用中的高密度、低功耗、大規模的并行計算系統。
內存計算(IMC)或者說可計算儲存,是近年來新興的一個概念,其原理是運用內存設備的物理特性進行資料的儲存和處理。不過,該研究及團隊不采用過去那種內建緩存,并通過總線連接外部內存的階層式架構,而是省略總線設計,直接把內存和CPU核心做在一起,盡最大的可能消除計算過程中因數據遷移所造成的延遲。
另一方面,相變內存本身就兼具DRAM類內存的速度,以及NAND的非易失性存儲特性,通過將相變內存直接和CPU集成,形成一種特殊的計算硬件結構,計算和存儲同時可在相同的結構上發生,不需要額外的傳輸、讀取再寫入的動作。因此從計算到存儲所需要的指令操作、帶寬消耗等現象都得以減少。對AI計算這種數據遷移量龐大的應用來說,省去了這些操作,自然整體計算效率就可以大大提升,且因為沒有總線,也沒有額外的讀寫操作,系統功耗也能大大減少。
如果所有的計算、讀寫工作都發生在同一個區塊上,不用遷移,自然也不會有延遲。這種概念完全不同于目前主流電子系統和設備的運行原理,我們所熟知的桌面計算機、筆記本計算機和手機等電子設備都采用了馮·諾伊曼結構。使用該構架的設備在運行時,各種數據會在內存和計算單元之間不斷穿梭,大量的數據調用會降低計算速度并且增加能量消耗。
其實,這就是一個具體而微小的電子大腦結構。在此次測試中,研究人員使用的 相變內存設備同樣是由兩個電極包夾著一層鍺銻碲復合材料構成。一股微弱的電流就可以加熱整個設備,復合材料內部狀態隨著溫度上升而發生改變,從無定形態變成晶態。研究人員再次利用了結晶動力學原理進行運算。而這里所用到的計算原理和先前人造神經元幾乎一模一樣。
IBM研究員、論文作者之一Evangelos Eleftheriou博士表示:“這是 AI 物理學研究中的重要一環,這項研究有助于探索新的硬件材料、設備和構架。技術瓶頸導致了摩爾定律的失效,因此我們需要從處理器與內存這種‘一分為二’的結構出發,從本質做出改變,來突破當今計算機的局限性。鑒于我們的內存計算技術的簡單性、高速度和低能耗,最終實驗結果十分顯著——非常接近于在馮·諾依曼計算機上運行的基準方法。”
IBM研究團隊本次實驗的具體細節都在最新發表的論文中進行了描述,《自然通訊》也于近日對論文進行了同行評審。為了展示這項技術,論文作者選取了兩個基于時間的例子,并且將該技術得出的結果與傳統機器學習方法得出的結果進行了比較。
“內存普遍被視為是儲存數據的地方。但是這項研究的結果顯示,我們可以利用內存設備的物理學特性,執行一個相當高級別的計算原語。計算的結果也儲存在內存中,從這個角度來看,該技術概念受到了大腦計算方式的啟發。”Abu Sebastian博士說。他是一名探索性記憶和認知技術科學家,也是論文的主要作者。