【導讀】過去十年間,幾項技術的進步使人工智能 (AI)成為最令人振奮的技術之一。2012年,Geoffrey Everest Hinton在Imagenet挑戰(zhàn)賽中展示了他的廣義反向傳播神經網絡算法,該算法使計算機視覺領域發(fā)生了革命性變化。然而,機器學習理論早在2012年之前就有人提出,并且Nvidia GTX 580圖形處理器單元等微處理器使這一理論得以實現(xiàn)。
過去十年間,幾項技術的進步使人工智能 (AI)成為最令人振奮的技術之一。2012年,Geoffrey Everest Hinton在Imagenet挑戰(zhàn)賽中展示了他的廣義反向傳播神經網絡算法,該算法使計算機視覺領域發(fā)生了革命性變化。然而,機器學習理論早在2012年之前就有人提出,并且Nvidia GTX 580圖形處理器單元等微處理器使這一理論得以實現(xiàn)。這些處理器具有相對較高的內存帶寬能力且擅長矩陣乘法,可將該神經網絡模型的AI訓練時間縮短至大約一周。理論與算法的結合開啟了新一代技術進步,帶來了與AI相關的全新可能性。本文概述了人工智能設計新時代及其多樣化處理、內存和連接需求。
人工智能剖析
我們將神經網絡定義為深度學習,它是機器學習及人工智能的一個子集,如圖1所示。這是一個重要的分類,深度學習該子集改變了芯片系統(tǒng)架構設計。
圖1:人工智能采用深度學習算法模仿人類行為
深度學習不僅改變了芯片架構,而且催生了半導體市場的新一輪投資。深度學習算法模型是研發(fā)和商業(yè)投資的熱點,例如卷積神經網絡 (CNN)。CNN一直是機器視覺的主要焦點。遞歸神經網絡等模型因其識別時間的能力而在自然語言理解中得以應用。
人工智能的應用
深度學習神經網絡應用于許多不同的場景,為使用它們的人提供了強大的新工具。例如,它們可以支持高級安全威脅分析、預測和防止安全漏洞,并通過預測潛在買家的購物流程來幫助廣告商識別和精簡銷售流程。
但AI設計并未局限于數據中心,諸如用于物件和人臉識別的視覺系統(tǒng)、用于改進人機接口的自然語言理解以及周圍環(huán)境感知等許多新功能可基于傳感器輸入的組合而使機器理解正在發(fā)生的活動。這些深度學習能力已融入到不同場景所需的芯片設計中,包括智能汽車、數字家庭、數據中心和物聯(lián)網 (IoT),如圖2所示。
圖2:AI處理能力已結合到大量應用中
手機利用神經網絡實現(xiàn)上述多種AI功能。手機可運行人臉識別應用、物件識別應用、自然語言理解應用。此外,它在內部使用神經網絡進行5G自組織,因為無線信號在其他介質、不同的光譜上會變得更密集,并且所傳輸的數據有不同的優(yōu)先級。
人類大腦
最近,深度學習通過數學和半導體硬件的進步變得可行。業(yè)界已開展多項舉措,在下一代數學模型和半導體架構中更好地復制人腦,這通常被稱為神經形態(tài)計算。人類的大腦可以達到難以置信的高效率,但技術在復制人類大腦等方面才剛開始觸及皮毛。人類大腦包含超過1 PB (Petabyte=1024TB)的存儲空間,相當于大約540萬億個晶體管,且功率小于12瓦。從這點來說,復制大腦是一個長遠的目標。然而,ImageNet挑戰(zhàn)賽已從2012年的第一個反向傳播CNN算法發(fā)展到2015年更高級的AI模型ResNet 152,市場正在快速發(fā)展,新的算法層出不窮。
AI設計挑戰(zhàn)
融合深度學習能力的芯片架構促使了多項關鍵技術的進步,從而達到高度集成的解決方案和更通用的AI 芯片,包含專用處理需求、創(chuàng)新內存架構和實時數據連接。
專用處理需求
融合神經網絡能力的芯片必須同時適應異構和大規(guī)模并行矩陣乘法運算。異構組件需要標量、矢量DSP和神經網絡算法能力。例如,機器視覺需要獨立的步驟,每一步都需要執(zhí)行不同類型的處理,如圖3所示。
圖3:神經網絡能力需要獨特的處理
預處理需要更簡單的數據級并行性。對所選區(qū)域的精確處理需要更復雜的數據級并行性,可以通過具有良好矩陣乘法運算能力的專用CNN加速器有效地處理。決策階段通??梢酝ㄟ^標量處理的方式來處理。每個應用都是獨一無二的,但很明顯的是,包括神經網絡算法加速的異構處理解決方案需要有效地處理AI模型。
創(chuàng)新內存架構
AI模型使用大量內存,這增加了芯片的成本。訓練神經網絡要求達到幾GB甚至10GB的數據,這就需要使用DDR最新技術,以滿足容量要求,例如,作為圖像神經網絡的VGG-16在訓練時需要大約9GB的內存;更精確的模型VGG-512需要89GB的數據才能進行訓練。為了提高AI模型的準確性,數據科學家使用了更大的數據集。同樣,這會增加訓練模型所需的時間或增加解決方案的內存需求。由于需要大規(guī)模并行矩陣乘法運算以及模型的大小和所需系數的數量,這就要求配備具有高帶寬存取能力的外部存儲器及新的半導體接口IP,如高帶寬存儲器 (HBM2)和衍生產品 (HBM2e)。先進的FinFET技術支持更大的芯片SRAM陣列和獨特的配置,具有定制的存儲器到處理器和存儲器到存儲器接口,這些技術正在開發(fā)中,為了更好地復制人腦并消除存儲器的約束。
AI模型可以壓縮,確保模型在位于手機、汽車和物聯(lián)網應用邊緣的芯片中受限的存儲器架構上運行所必需的。壓縮采用剪枝和量化技術進行且不能降低結果的準確性,這就要求傳統(tǒng)芯片架構(具有LPDDR或在某些情況下沒有外部存儲器)支持神經網絡。隨著這些模型的壓縮,不規(guī)則的存儲器存取和計算強度增加,延長了系統(tǒng)的執(zhí)行時間。因此,系統(tǒng)設計人員正在開發(fā)創(chuàng)新的異構存儲器架構。
實時數據連接
一旦AI模型經過訓練并可能被壓縮,就可以通過許多不同的接口IP解決方案執(zhí)行實時數據。例如,視覺應用由CMOS圖像傳感器支持,并通過MIPI攝像頭串行接口 (CSI-2)和MIPI D-PHY IP連接。LiDAR和雷達可通過多種技術支持,包括PCI Express和MIPI。麥克風通過USB、脈沖密度調制 (PDM) 和I2S等連接傳輸語音數據。數字電視支持HDMI和DisplayPort連接,以傳輸視頻內容,而這些內容可通過神經網絡傳輸后得到改善,實現(xiàn)超高圖像分辨率,從而以更少的數據生成更高質量的圖像。目前,大多數電視制造商正在考慮部署這項技術。
混合AI系統(tǒng)是另一個預計會大量采用的概念。例如,心率算法通過健身帶上的AI系統(tǒng)可以識別異常,通過將信息發(fā)送到云端,對異常進行更準確的深入AI神經網絡分析,并加以提示。這類技術已經成功地應用于電網負載的平衡,特別是在電線中斷或出現(xiàn)意外重負荷的情況下。為了支持快速、可靠的網絡與云端連接,上述示例中的聚合器需要以太網連接。
消除瓶頸
盡管復制人類大腦還有很長的路要走,但人類大腦已被用作構建人工智能系統(tǒng)的有效模型,并繼續(xù)由全球領先的研究機構來建模。最新的神經網絡試圖復制效率和計算能力,芯片架構也開始通過緊密耦合處理器和內存來復制人類大腦。ARC子系統(tǒng)包括AI及其APEX擴展和普遍存在的RISC架構所需的處理能力。子系統(tǒng)將外設和存儲器緊密耦合到處理器,以消除關鍵的存儲器瓶頸問題。
用于AI的DesignWare IP
AI是最令人振奮的技術之一,特別是深度學習神經網絡,通過結合神經網絡算法的創(chuàng)新以及高帶寬、高性能半導體設計的創(chuàng)新而飛速發(fā)展。
新思科技正在與世界各地細分市場中領先的AI 芯片供應商合作,提供采用經過驗證的可靠IP解決方案,幫助他們降低芯片設計風險,加快產品上市速度,并為AI設計人員帶來關鍵的差異化優(yōu)勢。
專用處理需求、創(chuàng)新內存架構和實時數據連接構成了人工智能芯片的DNA,面對AI設計挑戰(zhàn),新思科技提供了許多專業(yè)處理解決方案來消除存儲器瓶頸,包括存儲器接口IP、帶有TCAM和多端口存儲器的芯片SRAM編譯器等,同時提供了全面的實時數據連接選項。這些IP解決方案是下一代AI設計的關鍵組件。