從CPU到GPU,因應AI技術崛起,AI人工智慧已經普遍存在我們生活中。隨著AI與邊緣運算的需求急遽上升,從 2025至2026年間,AI邊緣運算晶片(Edge AI Chips)的發展正經歷從「雲端算力轉移」到「低功耗自主智能」的關鍵轉型,神經處理器(Neural network Processing Unit,NPU)、張量處理器(Tensor Processing Unit,TPU),和語言處理器(Language Processing Unit,LPU)等邊緣運算相關晶片,其技術與發展亦被市場廣泛關注。
↑ AI邊緣運算示意圖 (科技組透過Canvas AI生成)
技術發展背景
隨著生成式 AI(Generative AI)與大語言模型(LLM)的爆發,全球科技產業正經歷一場從「軟體定義」轉向「軟硬體協同演化」的轉變。OpenAI 執行長 Sam Altman 曾預言「算力將成為一種新的貨幣」,顯示這場晶片戰爭已進入多維度的競爭新局。
傳統的中央處理器(CPU)雖為通用運算大腦,但在處理大量並行運算時效率明顯不足;而目前正屬於市場紅人的圖形處理器(GPU)雖然強大,但在某些特定場景下存在功耗過高或推理延遲的問題。隨著 AI 應用從雲端資料中心向邊緣端(Edge)擴散,市場對「低延遲」、「低功耗」以及「隱私保護」的需大幅增加。為了突破算力瓶頸與能源效率限制,針對不同運算任務(Task-specific)設計的專用加速器:NPU、TPU 與 LPU 應運而生,推動半導體產業進入百花齊放的時代。
↑ 圖說:邊緣運算在物聯網上構成的即時資料分析架 (來源:Edge AI & Computing: Real-Time AI Power | Ultralytics)
NPU、TPU、LPU介紹與解析
|
|
NPU神經處理器 (Neural Processing Unit) |
TPU張量處理器 (Tensor Processing Unit) |
LPU 語言處理器 (Language Processing Unit) |
|
介紹 |
邊緣智慧的守門員:模擬人類神經系統的處理器,專為加速深度學習與機器學習應用而設計,強調在終端裝置上執行 AI 任務。 |
雲端算力的巨獸:Google專為機器學習開發的ASIC(特殊應用積體電路),專注於線性代數中的矩陣運算,放棄通用計算功能。 |
生成式 AI 的急先鋒:由Groq推出的新型架構,專為解決大語言模型(LLM)推理速度與延遲問題而生。 |
|
特性 |
1. 極低功耗:強調每瓦效能(Performance per Watt),適合電池供電設備。 2. 低精度運算:常採用INT8/FP16 進行推論,犧牲些微精度換取速度。 3. 隱私與低延遲:資料在終端處理不回傳雲端。 |
1. 高吞吐量:處理效能約為同期GPU/CPU 的15-30倍。 2. 矩陣專精:針對大規模矩陣乘法高度優化。 3. 缺乏靈活性:高度客製化,若演算法架構大幅變動,硬體較難適配。 |
1. 確定性執行:具備 Deterministic 性質,確保毫秒級的決策一致性。 2. 極速推理:每秒可生成數百個Token,解決 GPU 反應過慢的問題。 3. 成本高昂:因依賴 SRAM(靜態隨機存取記憶體),容量受限,難以裝載超巨型模型。 |
|
技術核心 |
仿生神經架構 採用高度平行化設計,常整合於 SoC(系統單晶片)中。部分廠商(如 Kneron)開發可重構架構,可動態調整資源給影像或語音模型。 |
脈動陣列 (Systolic Array) 採用串列陣列架構與特化記憶體(如 HBM),專精於處理大規模張量數據流。 |
張量串流處理器(TSP) + SRAM 捨棄慢速的外部記憶體(HBM/DRAM),全採用速度極快的片上 SRAM(靜態隨機存取記憶體)以消除傳輸瓶頸。 |
|
應用範圍 |
終端感知與推論 1. 手機/AI PC:人臉辨識、即時翻譯、照片優化。 2. 車用電子:ADAS、駕駛監控。 3. IoT/安防:物件偵測、智慧監控。 |
雲端訓練與大規模運算
|
即時語言推理
|
|
主要廠商 |
Apple (A/M系列)、Qualcomm、Intel、MediaTek (聯發科)、NXP (Kinara)、Kneron (耐能智慧)。 |
Google (Cloud TPU & Edge TPU)、Coral。 (Amazon與 Microsoft 亦在開發類似概念之 ASIC)。 |
Groq。 NVIDIA (於2025年簽署200億美元技術授權,顯示其對此架構的重視)。 |
|
市場及未來趨勢 |
全面普及化 (2026) 1. 將成為手機、筆電(AI PC)與車用電子的標配。 2. 技術轉向「存算一體(CIM)」以突破記憶體牆。 |
雲端霸權與自研潮 1. 雲端大廠(Amazon, Microsoft)將擴大自研 ASIC以擺脫 NVIDIA 依賴。 2. 結合液冷技術解決高功耗散熱問題。 |
推理專用化 1. 推理市場將與訓練市場分離,LPU 類架構將瓜分企業私有雲與即時服務市佔。 2. 「軟體定義硬體」成顯學,NVIDIA 的介入可能加速 LPU 技術整合進主流 GPU 生態。 |
*科技組自行整理製表
南加州產業概況
南加州(Southern California)的 AI 晶片生態系呈現出「硬體實體化」與「特定場景深度結合」的獨特優勢,形成了從前瞻研究到產業落地的完整鏈結。憑藉如加州大學洛杉磯分校及聖塔芭芭拉分校(UCLA、UCSB)、加州州立理工大學(California Polytechnic State University at San Luis Obispo, Cal Poly SLO) 等頂尖學研機構,南加州已然形成從半導體架構研究到 Spin-off 新創,以及產業落地的完整生態系。在 NPU、TPU、LPU 與先進封裝、異質整合、光子互連、概率計算等領域,學術成果轉化為商業實體的速度與深度皆具國際競爭力。另一方面,臺灣 IC設計廠商在南加州的布局,已高度集中於邊緣運算(Edge AI)晶片,並與當地學研能量形成互補。
一、學研機構的突破
1. UCLA(加州大學洛杉磯分校):
其CHIPS Center專注於異質整合與互連技術,並開發出磁性半導體(Spintronics)新製程,能大幅縮短邊緣運算反應時間。UCLA不僅與臺灣工研院於2022年簽署合作,共同開發電壓控制式磁性記憶體(VC-MRAM),致力於將能耗降低百倍並提升十倍以上速度,亦有在AI機器人領域的研發合作。
- UCLA CHIPS 中心負責人 Subramanian Iyer 教授曾參與推動WaveConnex企業分拆(Spin-off)(現已併入Keyssa),以學術端的技術支援:物理層級的低功耗、高頻寬互連解決方案,支撐異質整合與先進封裝架構。
2. USC(南加州大學):
研發能模擬生物功能的人工神經元晶片,致力於降低 NPU 90% 以上的能耗。
3. UCSB(加州大學聖塔芭芭拉分校):
為矽光子技術重鎮,與新型計算架構的核心學府,研究方向已超越傳統 TPU,直指 LPU 與後摩爾時代架構。其衍生新創(如Quintessent)致力於解決晶片間資料傳輸的頻寬瓶頸,目前尚屬新創階段中的P-Bits Computing,則投入概率電腦技術研發。
4. Cal Poly SLO(加州州立理工大學):
較少直接分拆 IC 設計新創,但其「AI Factory」與資安、國防相關研究,孕育大量 AI 應用型公司,如聚焦於邊緣及時AI推理的WhiteFox Defense,將NPU 部署於嵌入式系統,進行高速射頻訊號分析,是邊緣 AI 在國防與公共安全領域的代表案例。
二、產業聚落與應用
1. 國防與航太:作為波音與 SpaceX 的大本營,南加州對邊緣 AI 的需求集中於抗干擾與即時感測。例如 WhiteFox Defense 等公司將 NPU 應用於國防邊緣推理。
2. 生物醫療:UCLA 開發的穿戴式系統內建微型 AI 晶片,透過解碼腦波控制機械手臂,展現了極低延遲的應用潛力。
3. IC 設計聚落:南加州爾灣(Irvine)與聖地牙哥(San Diego)聚集了大量晶片設計商。臺灣廠商如聯發科(MediaTek)、耐能智慧(Kneron)、奇景光電(Himax)均在此佈局,重點鎖定邊緣運算(Edge AI)與車用電子。Kneron 更被視為南加州最具代表性的 NPU 新創之一,專注於可重構的高能效架構。
新墨西哥州產業概況
新墨西哥州(New Mexico)在 AI 晶片技術領域的發展與南加州截然不同,AI 與運算產業並非單純追求商業速度,其核心優勢建立在國家安全、能源科學與超大規模運算的基石之上,包括外太空的抗輻射運算、國防安全網路中的封閉式推論,以及廣闊農業與能源網格中的即時監控。且該州擁有全美頂尖的國家實驗室,使其成為次世代 AI 架構(如類腦運算與超級電腦整合)的全球試驗場。
- 關鍵邊緣技術解析:
新墨西哥州的技術路徑展現了 HPC(高效能運算)與 Edge(邊緣端)的獨特融合,專注發展航太與抗輻射邊緣運算(Aerospace & Rad-Hard Edge)、類腦運算與神經形態晶片(Neuromorphic Computing)、混合式架構與先進封裝(Heterogeneous Integration)等核心技術,以符合衛星與太空任務、自主機器人及長期部署的監控設備需求。 - 新墨西哥人工智慧聯盟(New Mexico AI Consortium, NMAIC)
- (Sandia)、洛斯阿拉莫斯(LANL)、新墨西哥大學(UNM)、新墨西哥州立大學(NMSU)及新墨西哥理工學院( NM Tech)的超級聯盟。強調硬體研究與產業合作,打造多機構 AI 生態系,並專注於開發專用 AI 晶片、邊緣運算設備,並建立從基礎研究到商業落地的完整人才管道。
- 產學合作案例:
2025 年 10 月,新墨西哥州立大學(NMSU)與日本富士通簽署備忘錄,建立國家級高效能與邊緣運算測試平台(National Testbed),引進富士通的 FUJITSU-MONAKA 晶片,這是一款基於 Arm 架構、專為高能效與 HPC 工作負載設計的處理器,具備 LPU 的特性(低延遲、高並發),該測試平台將專注於精準農業(數據驅動耕作)、微電網(Microgrids)控制、水資源監測等邊緣應用。
↑ 圖說:NMSU及Fujitsu簽訂MOU (來源:NMSU新聞稿)