downloadGroupGroupnoun_press release_995423_000000 copyGroupnoun_Feed_96767_000000Group 19noun_pictures_1817522_000000Member company iconResource item iconStore item iconGroup 19Group 19noun_Photo_2085192_000000 Copynoun_presentation_2096081_000000Group 19Group Copy 7noun_webinar_692730_000000Path
移至主內容
2019-05-21

AI 人工智慧時代來臨,為何創新運算架構成為半導體業焦點?

過去數年以來,NVIDIA GoogleAmazon IBM 等等企業投入了大量的資源發展「深度學習」技術,到了 2019年,自動駕駛、 AI 攝影、語音助理與推薦系統已經是生活中常見的商業應用:特斯拉的自駕車、Google驚人的黑夜攝影技術、真人般的語音助理對話以及 Spotify精準的推薦歌單,都成了殺手級的產品功能。

看到人工智慧時代的潛力,許多公司正試圖利用深度學習技術探索更多領域的潛在應用,涵蓋智慧醫療、商業行為分析、物流、智慧工廠、資訊安全跟雲端計算產業。

 

人工智慧應用產生鉅量運算需求

深度學習結構中,最大的進展是能讓電腦「學習」判讀「圖像」以及「聲音」,現實環境的物體都具有數量繁多、種類龐雜的資料表徵(Feature),例如圖像中的向量值、聲波的類比訊號,或是不同物體形狀的向量特徵,這類電子訊號經過處理後轉譯為數位訊號,進而讓電腦處理、分析以及「學習」,並透過演算法不斷訓練與增強,提升深度學習模型預測的正確率。

 

當人工智慧浪潮爆發之後,開發出的深度學習模型越趨複雜,高效能運算的市場需求也隨之攀升,為了縮短模型訓練時間與提升預測正確性,晶片開發商競相推出效能更強的 AI 處理晶片。

 

先進製程投資門檻大幅攀升,半導體業轉向運算架構上的創新

談到晶片效能改善,第一直覺是製程的改良,但隨著摩爾定律的逼近,電晶體的大小受到原子的物理限制,半導體製程的良率控制難度越來越高。

 

10 奈米(nm)以下製程首先面臨的挑戰是光刻技術的限制,半導體廠商需要由傳統的 DUV 轉為投入 EUV,利用解析度較高的 EUV 設備將晶片電路圖投射在基板上,這也代表光刻設備的重新投資,必須投入數百億美元進行研發,導致先進製程的價格相當昂貴。

 

對晶片設計業者而言,如果出貨量低於千萬顆,採用先進製程並不划算,況且提升的效能也有限,為了滿足人工智慧技術的運算需求,紛紛轉為追求「運算架構」上的創新── 針對人工智慧演算法特性開發的專屬硬體架構,分別為 GPU FPGA ASIC

{{cta('c754009a-7077-41f6-9768-e2112f97039e')}}

 

GPUFPGAASIC架構在人工智慧中的應用

深度學習是將物體的表徵資料輸入多層模型,逐層將特徵歸類為屬性類別,或是特徵,用以「學習」猜測新的物件類別,整個過程稱為「訓練(Training)」,這類演算法需要處理繁多且稠密的矩陣向量運算,必須採用平行運算架構的處理器才能有效處理數據。

 

圖形處理器(GPU起初僅是 NVIDIA 針對電腦繪圖運算所開發,由數千個運算單位組成的平行運算架構,負責處理影像所需的矩陣運算,恰好符合深度學習演算法的需求,相對之下,傳統的中央處理器(CPU)僅有數個著重序列處理的核心,並不適合訓練深度學習模型。

 

另一方面,訓練效能大幅度取決於處理器與暫存記憶體之間的溝通速度(Computing In Memory), GPU 配有高速的 GDDR6 視訊記憶體顆粒(VRAM),不僅具有更大的記憶體頻寬,更高的時脈也帶來更快的資料讀取/寫入速度,上述種種的優勢讓 GPU 的訓練效率遠比 CPU 好,成為訓練深度學習模型中最主流的運算架構。

 

探討完「訓練(Training)」後,值得注意的是深度學習 95% 的運作場景反而是「推論(Inference)」:是指將訓練好的模型應用在從未見過的資料中── 這項運算需要由獨立的 AI 晶片來執行,為此市場將目光投向了低功耗與低延遲的硬體架構:FPGA ASIC

 

可程式化邏輯閘陣列(FPGA內部整合了大量的數位電路基本閘電路和儲存器,稱為「邏輯塊」,設計者透過工具軟體燒入設定檔來定義彼此之間的連線,快速驗證晶片的邏輯功能,而且出廠後也能依照需求改變邏輯塊之間的連線,客製化所需的邏輯功能。

 

由於處理的是較簡單且特規的邏輯功能,在功耗與延遲上比通用的 CPU GPU 來得更有優勢,而且具有低成本、高度設計彈性以及開發時間較短的優點,廣泛受到中小型公司的歡迎,該領域目前由Xilinx Intel 領軍。

 

特殊應用積體電路(ASIC)是為專門目的而設計的積體電路,執行速度在同等條件下比FPGA快,而且功耗更低, Google 知名的硬體加速 TPU 便是以 ASIC 為架構基礎,但缺點是出廠便無法更改其邏輯架構,一旦改演算法更動,就必須重新客製化新的 ASIC 晶片,因此晶片出貨量必須夠大才能有規模效益。

 

FPGA 與 ASIC 大多停留在成熟製程,介於 28 nm 12 nm ,尚未普遍應用 10 nm 以下的先進製程── 人工智慧時代中,比起追求傳統的製程改善,晶片開發商更著重設計創新的運算架構,以滿足快速成長的高效能運算需求。

 

為滿足呈倍數增加的數據資料以及更複雜的矩陣運算需求,一場創新 AI 晶片架構的競賽早已悄然展開,這股席捲全球的 AI 浪潮,預期將引爆超過 2 兆美元的商機!全球第二大國際半導體展 SEMICON Taiwan 今年將舉辦「智慧數據國際高峰論壇」以及「量子電腦論壇」,聚焦未來運算趨勢與創新架構,邀請來自 ARM、Facebook、Mentor, a Siemens Business、旺宏...等各領域菁英學者與專家,一起深度剖析應如何透過新的運算平台及 AI 晶片設計以實現數位化未來。想掌握這股浪潮、擁抱兆元商機,點擊以下 "立即報名" 就能即刻贏在起跑點!

{{cta('46284387-ccbe-4e6d-b043-b1c211109ffd')}}