跳到主要內容
:::

🏃誰來接棒GPU? 下一代AI晶片趨勢:NPU、TPU、LPU

從CPU到GPU,因應AI技術崛起,AI人工智慧已經普遍存在我們生活中。隨著AI與邊緣運算的需求急遽上升,從 2025至2026年間,AI邊緣運算晶片(Edge AI Chips)的發展正經歷從「雲端算力轉移」到「低功耗自主智能」的關鍵轉型,神經處理器(Neural network Processing Unit,NPU)、張量處理器(Tensor Processing Unit,TPU),和語言處理器(Language Processing Unit,LPU)等邊緣運算相關晶片,其技術與發展亦被市場廣泛關注。

 

↑  AI邊緣運算示意圖 (科技組透過Canvas AI生成)

 

技術發展背景

隨著生成式 AI(Generative AI)與大語言模型(LLM)的爆發,全球科技產業正經歷一場從「軟體定義」轉向「軟硬體協同演化」的轉變。OpenAI 執行長 Sam Altman 曾預言「算力將成為一種新的貨幣」,顯示這場晶片戰爭已進入多維度的競爭新局。

傳統的中央處理器(CPU)雖為通用運算大腦,但在處理大量並行運算時效率明顯不足;而目前正屬於市場紅人的圖形處理器(GPU)雖然強大,但在某些特定場景下存在功耗過高或推理延遲的問題。隨著 AI 應用從雲端資料中心向邊緣端(Edge)擴散,市場對「低延遲」、「低功耗」以及「隱私保護」的需大幅增加。為了突破算力瓶頸與能源效率限制,針對不同運算任務(Task-specific)設計的專用加速器:NPU、TPU 與 LPU 應運而生,推動半導體產業進入百花齊放的時代。

 

↑  圖說:邊緣運算在物聯網上構成的即時資料分析架 (來源:Edge AI & Computing: Real-Time AI Power | Ultralytics)

 

 

NPUTPULPU介紹與解析

 

NPU神經處理器

(Neural Processing Unit)

TPU張量處理器

(Tensor Processing Unit)

LPU 語言處理器

(Language Processing Unit)

介紹

邊緣智慧的守門員:模擬人類神經系統的處理器,專為加速深度學習與機器學習應用而設計,強調在終端裝置上執行 AI 任務。

雲端算力的巨獸:Google專為機器學習開發的ASIC(特殊應用積體電路),專注於線性代數中的矩陣運算,放棄通用計算功能。

生成式 AI 的急先鋒:由Groq推出的新型架構,專為解決大語言模型(LLM)推理速度與延遲問題而生。

特性

1. 極低功耗:強調每瓦效能(Performance per Watt),適合電池供電設備。

2. 低精度運算:常採用INT8/FP16 進行推論,犧牲些微精度換取速度。

3. 隱私與低延遲:資料在終端處理不回傳雲端。

1. 高吞吐量:處理效能約為同期GPU/CPU 的15-30倍。

2. 矩陣專精:針對大規模矩陣乘法高度優化。

3. 缺乏靈活性:高度客製化,若演算法架構大幅變動,硬體較難適配。

1. 確定性執行:具備 Deterministic 性質,確保毫秒級的決策一致性。

2. 極速推理:每秒可生成數百個Token,解決 GPU 反應過慢的問題。

3. 成本高昂:因依賴 SRAM(靜態隨機存取記憶體),容量受限,難以裝載超巨型模型。

技術核心

仿生神經架構

採用高度平行化設計,常整合於 SoC(系統單晶片)中。部分廠商(如 Kneron)開發可重構架構,可動態調整資源給影像或語音模型。

脈動陣列

(Systolic Array)

採用串列陣列架構與特化記憶體(如 HBM),專精於處理大規模張量數據流。

張量串流處理器(TSP) + SRAM

捨棄慢速的外部記憶體(HBM/DRAM),全採用速度極快的片上 SRAM(靜態隨機存取記憶體)以消除傳輸瓶頸。

應用範圍

終端感知與推論

1. 手機/AI PC人臉辨識、即時翻譯、照片優化。

2. 車用電子:ADAS、駕駛監控。

3. IoT/安防:物件偵測、智慧監控。

雲端訓練與大規模運算

  1. 模型訓練:如 Gemini、BERT 等大型模型的預訓練。
  2. 雲端服務:Google Search、Google Maps、語音助理後端。

即時語言推理

  1. 即時對話:超低延遲的 Chatbot。
  2. 即時翻譯:需要毫秒級反應的口譯場景。
  3. 高頻交易:金融分析等需極速反應之任務。

主要廠商

Apple (A/M系列)、QualcommIntelMediaTek (聯發科)、NXP (Kinara)、Kneron (耐能智慧)。

Google (Cloud TPU & Edge TPU)、Coral。 (Amazon與 Microsoft 亦在開發類似概念之 ASIC)。

Groq

NVIDIA (於2025年簽署200億美元技術授權,顯示其對此架構的重視)。

市場及未來趨勢

全面普及化 (2026)

1. 將成為手機、筆電(AI PC)與車用電子的標配。

2. 技術轉向「存算一體(CIM)以突破記憶體牆。

雲端霸權與自研潮

1. 雲端大廠(Amazon, Microsoft)將擴大自研 ASIC以擺脫 NVIDIA 依賴。

2. 結合液冷技術解決高功耗散熱問題。

推理專用化

1. 推理市場將與訓練市場分離,LPU 類架構將瓜分企業私有雲與即時服務市佔。

2. 「軟體定義硬體」成顯學,NVIDIA 的介入可能加速 LPU 技術整合進主流 GPU 生態。

*科技組自行整理製表

 

南加州產業概況

南加州(Southern California)的 AI 晶片生態系呈現出「硬體實體化」與「特定場景深度結合」的獨特優勢,形成了從前瞻研究到產業落地的完整鏈結。憑藉如加州大學洛杉磯分校及聖塔芭芭拉分校(UCLA、UCSB)、加州州立理工大學(California Polytechnic State University at San Luis Obispo, Cal Poly SLO) 等頂尖學研機構,南加州已然形成從半導體架構研究到 Spin-off 新創,以及產業落地的完整生態系。在 NPU、TPU、LPU 與先進封裝、異質整合、光子互連、概率計算等領域,學術成果轉化為商業實體的速度與深度皆具國際競爭力。另一方面,臺灣 IC設計廠商在南加州的布局,已高度集中於邊緣運算(Edge AI)晶片,並與當地學研能量形成互補。

一、學研機構的突破

1. UCLA(加州大學洛杉磯分校)
其CHIPS Center專注於異質整合與互連技術,並開發出磁性半導體(Spintronics)新製程,能大幅縮短邊緣運算反應時間。UCLA不僅與臺灣工研院於2022年簽署合作,共同開發電壓控制式磁性記憶體(VC-MRAM),致力於將能耗降低百倍並提升十倍以上速度,亦有在AI機器人領域的研發合作。 

  • UCLA CHIPS 中心負責人 Subramanian Iyer 教授曾參與推動WaveConnex企業分拆(Spin-off)(現已併入Keyssa),以學術端的技術支援:物理層級的低功耗、高頻寬互連解決方案,支撐異質整合與先進封裝架構。

2. USC(南加州大學)
研發能模擬生物功能的人工神經元晶片,致力於降低 NPU 90% 以上的能耗。

3. UCSB(加州大學聖塔芭芭拉分校)
為矽光子技術重鎮,與新型計算架構的核心學府,研究方向已超越傳統 TPU,直指 LPU 與後摩爾時代架構。其衍生新創(如Quintessent)致力於解決晶片間資料傳輸的頻寬瓶頸,目前尚屬新創階段中的P-Bits Computing,則投入概率電腦技術研發。

4. Cal Poly SLO(加州州立理工大學)
較少直接分拆 IC 設計新創,但其「AI Factory」與資安、國防相關研究,孕育大量 AI 應用型公司,如聚焦於邊緣及時AI推理的WhiteFox Defense,將NPU 部署於嵌入式系統,進行高速射頻訊號分析,是邊緣 AI 在國防與公共安全領域的代表案例。

二、產業聚落與應用

1. 國防與航太:作為波音與 SpaceX 的大本營,南加州對邊緣 AI 的需求集中於抗干擾與即時感測。例如 WhiteFox Defense 等公司將 NPU 應用於國防邊緣推理。

2. 生物醫療:UCLA 開發的穿戴式系統內建微型 AI 晶片,透過解碼腦波控制機械手臂,展現了極低延遲的應用潛力。

3. IC 設計聚落:南加州爾灣(Irvine)與聖地牙哥(San Diego)聚集了大量晶片設計商。臺灣廠商如聯發科(MediaTek)、耐能智慧(Kneron)、奇景光電(Himax)均在此佈局,重點鎖定邊緣運算(Edge AI)與車用電子。Kneron 更被視為南加州最具代表性的 NPU 新創之一,專注於可重構的高能效架構。

 

新墨西哥州產業概況

新墨西哥州(New Mexico)在 AI 晶片技術領域的發展與南加州截然不同,AI 與運算產業並非單純追求商業速度,其核心優勢建立在國家安全、能源科學與超大規模運算的基石之上,包括外太空的抗輻射運算、國防安全網路中的封閉式推論,以及廣闊農業與能源網格中的即時監控。且該州擁有全美頂尖的國家實驗室,使其成為次世代 AI 架構(如類腦運算與超級電腦整合)的全球試驗場。

  • 關鍵邊緣技術解析:
    新墨西哥州的技術路徑展現了 HPC(高效能運算)與 Edge(邊緣端)的獨特融合,專注發展航太與抗輻射邊緣運算(Aerospace & Rad-Hard Edge)、類腦運算與神經形態晶片(Neuromorphic Computing)、混合式架構與先進封裝(Heterogeneous Integration)等核心技術,以符合衛星與太空任務、自主機器人及長期部署的監控設備需求。
  • 新墨西哥人工智慧聯盟(New Mexico AI Consortium, NMAIC)
  • (Sandia)、洛斯阿拉莫斯(LANL)、新墨西哥大學(UNM)、新墨西哥州立大學(NMSU)及新墨西哥理工學院( NM Tech)的超級聯盟。強調硬體研究與產業合作,打造多機構 AI 生態系,並專注於開發專用 AI 晶片、邊緣運算設備,並建立從基礎研究到商業落地的完整人才管道。
  • 產學合作案例:

2025 年 10 月,新墨西哥州立大學(NMSU)與日本富士通簽署備忘錄,建立國家級高效能與邊緣運算測試平台(National Testbed),引進富士通的 FUJITSU-MONAKA 晶片,這是一款基於 Arm 架構、專為高能效與 HPC 工作負載設計的處理器,具備 LPU 的特性(低延遲、高並發),該測試平台將專注於精準農業(數據驅動耕作)、微電網(Microgrids)控制、水資源監測等邊緣應用。

 

↑ 圖說:NMSU及Fujitsu簽訂MOU (來源:NMSU新聞稿)

 

 

相關連結

駐洛杉磯辦事處臉書貼文
更新日期 : 2026/03/04