訂閱
糾錯
加入自媒體
發文

英研究團隊研發非神經網絡硬件降低人工智能功耗

日前,英國紐卡斯爾大學的研究人員研發出一種非神經網絡硬件,可以顯著降低人工智能的功率消耗。

研發團隊訓練了一個神經網絡,讓它和另一項Tsetlin機器技術,分別從標準MNIST數據集識別手寫數字。

紐卡斯爾大學高級講師Rishad Shafik表示:“即開即用的神經網絡讓我們每焦耳可以進行不到10萬億次操作。而使用我們設計的第一臺Tsetlin機器,這個數值能達到65萬億次。這種改進主要來自于簡化過的邏輯設計。”

他補充說,在上述數字識別實驗中時,一臺Tsetlin機器“可以識別15個單詞,與神經網絡識別一個單詞所需的能量消耗相同”。

Tsetlin機器是一種“學習自動機”(learning automata),它最早是由俄羅斯科學家Mikhail Tsetlin在20世紀60年代發明的一種機器學習算法。Shafik解釋說,這種算法的問題在于,在其基本形式中,“學習自動機幾乎不可能在硬件上實現,因為有大量的狀態需要去適應”。

挪威阿格德大學的AI教授Ole-Christoffer Granmo說,在過去的幾年里,他通過將學習自動機與經典的博弈論和布爾代數相結合,找到了一種降低學習自動機復雜性的方法。他將簡化版的學習自動機應用到軟件中,并以該學科創始人的名字將其命名為“Tsetlin機器”(Tsetlin machine)。

在Granmo的研究基礎以及他本人的協助下,紐卡斯爾團隊找到了一種能夠有效地將Tsetlin機器的數據類型和基礎算法映射到邏輯門上的方法,并在FPGA和定制ASIC上成功實現,他們采用的的形式不僅適用于訓練/學習AI階段,同時也適用于訓練之后,也就是所謂的AI推理階段。

Shafik將Tsetlin機器和神經網絡之間的功耗差別歸結于它們映射到硬件上的方式:神經網絡,包括二值神經網絡在內,都是算術,它們包含了許多乘法和加法操作,而Tsetlin機器硬件不使用算術。他表示:“這純粹是邏輯上的平行操作。”

紐卡斯爾微系統研究小組組長Alex Yakovlev,同時也和Shafik一樣是AI團隊的領導者,他表示:“能量效率是人工智能最重要的賦能因素,同樣重要的是能夠解釋AI決策的能力。對于這兩方面,我們需要擺脫算術,而我們的Tsetlin機器硬件設計正好幫我們解決了這一問題。”

這樣的機器能做什么?“任何類型的機器學習都需要訓練。”Shafik說道,“本質上,它能夠做神經網絡可以做的任何事情。”

聲明: 本網站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號

电竞投注竞彩app