現(xiàn)貨庫存,2小時發(fā)貨,提供寄樣和解決方案
熱搜關鍵詞:
《自然》雜志于8月23日發(fā)布的一項研究報告中,報道了一種由IBM研究實驗室開發(fā)的人工智能(AI)模擬電路芯片,其能效是傳統(tǒng)數(shù)字計算機芯片的14倍。這一研究表明,該芯片在語音識別方面的效率超過了通用處理器,有望突破當前AI開發(fā)中因算力性能不足和效率低下而遇到的瓶頸。
隨著人工智能技術的崛起,對能源和資源的需求也相應增加。在語音識別領域,軟件升級極大地提高了自動轉寫的準確率,但由于在存儲器與處理器之間移動的運算量不斷增加,硬件無法跟上訓練和運行這些模型所需的數(shù)以百萬計的參數(shù)。為解決這一問題,研究人員提出了一種名為“存內計算”(CiM,或稱模擬AI)芯片的解決方案。模擬AI系統(tǒng)通過在其自己的存儲器內直接執(zhí)行運算,避免了數(shù)字處理器在存儲器和處理器之間移動數(shù)據(jù)所需的額外時間和能源消耗。預計模擬AI芯片能極大提升AI計算的能效,但迄今為止缺乏實際演示。
在這項研究中,研究團隊開發(fā)了一款14納米的模擬芯片,其中包含了3500萬個相變化內存單元,分布在34個模塊(tile)中。研究人員使用兩個語音識別軟件對該芯片的效率進行了測試,這兩個軟件分別是一個小型網(wǎng)絡(谷歌語音命令)和一個大型網(wǎng)絡(Librispeech語音識別),并與行業(yè)標準進行了對比。結果顯示,該芯片在小型網(wǎng)絡上的性能和準確率與當前的數(shù)字技術相當。對于更大的Librispeech模型來說,該芯片每秒每瓦能夠執(zhí)行12.4萬億次運算,系統(tǒng)性能估計最高可達傳統(tǒng)通用處理器的14倍。
研究團隊總結稱,他們的研究在小型和大型模型中驗證了模擬AI技術的性能和效率,有望成為商業(yè)可行的數(shù)字系統(tǒng)替代選擇。這一突破性的研究為AI技術的發(fā)展提供了新的可能性,有望推動AI在各個領域的廣泛應用。
*免責聲明:以上內容和配圖均來自網(wǎng)絡。如有內容、版權問題,請與我們聯(lián)系進行刪除。