menu-icon
anue logo
澳洲房產鉅亨號鉅亨買幣
search icon
美股

比人腦快200倍!英特爾推神經擬態系統Hala Point 支援未來類腦 AI 研究

鉅亨網新聞中心 2024-04-18 12:30

cover image of news article
(圖:REUTERS/TPG)

美國晶片巨擘英特爾 (INTC-US) 宣布,其打造出全球最大的神經擬態系統——Hala Point,旨在支援未來類腦 AI 研究,解決 AI 目前在效率和永續性等方面的挑戰。

具體來說,Hala Point 內建 1152 個、基於 Intel 4(7nm)製程的英特爾 Loihi 2 處理器,支援多達 11.5 億個神經元和 1280 億個突觸,每秒可處理超過 380 兆個 8 位 突觸和超過 240 兆個神經元操作,相關係統最初部署在美國桑迪亞國家實驗室。

英特爾強調,Hala Point 推進了公司第一代大規模研究系統 Pohoiki Springs 的發展,其架構經過改進,神經元容量提高了 10 倍以上,性能提高了 12 倍。 應用於仿生尖峰神經網路模型時,在運行神經元數量較低的情況下,Hala Point 速度可比人腦快 200 倍。

英特爾研究院神經擬態計算實驗室總監 Mike Davies 表示:「目前,AI 模型的算力成本正在以不可持續的速度上升。業界需要能夠規模化的全新計算方法。為此,英特爾開發了 Hala Point,將 高效率的深度學習和新穎的類腦持續學習、優化能力結合起來。

事實上,所謂神經擬態晶片,是一種模擬生物神經元的晶片。與普通晶片不同的是,神經擬態晶片的計算任務是由許多小單元進行的,單元之間透過類似生物神經的尖峰訊號相互通信,並透過尖峰調整其行為。

早在 2018 年,基於英特爾研究院的先進技術研究,英特爾推出了首款神經擬態晶片 Loihi,採用 14nm 製程,可應用於機器嗅覺等場景。

2021 年,Loihi 系列全面升級,英特爾發表了第二代神經擬態晶片 Loihi 2,採用英特爾第一個 EUV 製程節點 Intel 4,晶片等效於 4nm,實際為 7nm 製程。

Loihi 2 共有 128 個神經擬態核心,這 128 個內核每一個都有 192KB 的靈活內存,每個神經元可以根據模型分配多達 4096 個狀態,而之前的限制只有 24 個。

與普通的 CPU 和 GPU 不同,神經擬態沒有外部記憶體。 每個神經元都有一小部分記憶體供其專用。 主要作用是分配給不同神經元輸入的權重、最近活動的緩存以及峰值發送到的所有其他神經元的列表。Loihi 2 可以根據用途選擇各種不同連接選項,這一點上有些類似於 FPGA。

英特爾強調,在執行 AI 推理負載和處理最佳化問題時,Loihi 2 神經擬態晶片系統的速度比常規 CPU 和 GPU 架構快 50 倍,同時能耗降低 100 倍。

除了硬體產品外,英特爾還發布了用於 Loihi 晶片的軟體,一個名為 Lava 的新開發框架。 框架以及相關函式庫都以 Python 編寫,並在 GitHub 上開源,開發人員無需存取硬體即可為 Loihi 開發程式。

如今,英特爾已經將 Loihi 2 晶片用於機械手臂、神經擬態皮膚、機器嗅覺等場景。

英特爾表示,Loihi 2 應用了眾多類腦計算原理,如異步 /(asynchronous)、
基於事件的脈衝神經網路(SNNs)、存算一體,以及不斷變化的稀疏連接,以實現能效比和性能的數量級提升。 神經元之間能夠直接通信,而非透過記憶體通信,因此能降低整體功耗。

在用於仿生脈衝神經網路模型時,Hala Point 能夠以比人腦快 20 倍的實時速度運行其全部 11.5 億個神經元,在運行神經元數量較低的情況下,速度可比人腦快 200 倍 。 

雖然 Hala Point 並非用於神經科學建模,但其神經元容量大致相當於貓頭鷹的大腦或卷尾猴的大腦皮質。

早期研究結果表明,透過利用稀疏性高達 10 比 1 的稀疏連接(sparse connectivity)和事件驅動的活動,Hala Point 運行深度神經網路的能效比高達 15 TOPS/W,同時無需對輸入資料進行批次處理。 批次處理是一種常用於 GPU 的最佳化方法,會大幅增加即時資料(如來自相機的視訊)處理的延遲。 儘管仍處於研究階段,但未來的神經擬態大語言模型將不再需要定期在不斷增長的資料集上再訓練,從而節省數千兆瓦時的能源。

英特爾表示,Hala Point 在其前身 Pohoiki Springs 的基礎上實現了大幅提升,基於神經擬態計算技術提升了主流、常規深度學習模型的性能和效率,尤其是那些用於處理視頻、語音和無線通信等實時 工作負載的模型。

目前,Hala Point 是一個旨在改進未來商用系統的研究原型。 英特爾預計其研究將帶來實際技術突破,如讓大語言模型擁有從新數據中持續學習的能力,從而有望在 AI 廣泛部署的過程中,大幅降低訓練能耗,提高可持續性。

英特爾透露,接下來,Hala Point 系統將向桑迪亞國家實驗室交付,從而標誌著英特爾共享的大型神經擬態研究系統的首次部署,進一步推動神經擬態計算應用和類腦 AI 研究等。 如今,英特爾神經擬態研究社群(INRC)成員總數已超過 200 個。

不過,英特爾這套神經擬態技術在深度學習領域仍面臨一定的質疑。
Meta 首席科學家、圖靈獎得主 Yann LeCun 曾在 2019 年的會議上駁斥了神經擬態計算方法。 他認為,神經形態方法沒有實際成果,像 ResNet 等深神經網路已經在電腦視覺上取得了巨大的成功。

不過,IBM 在 2014 年推出了 TrueNorth 晶片,儘管其運作頻率只有幾 kHz,但它所模擬大腦尖峰神經網路所需的運算資源,只傳統處理器 0.0001%。

Mike Davies 曾表示,Loihi 在某些特定工作負載上,可以比傳統處理器效率高出 2000 倍。

目前,新的 AI 時代已經到來,Hala Point 或將成為未來英特爾打開 AGI 時代的重要一把「鑰匙」。






Empty