Synaptics 與 Astra 平台解析:Edge AI MPU 與 Transformer 架構的真正意義
隨著 AI 從雲端走向終端裝置,「Edge AI」正在快速重構整個半導體產業。過去我們熟悉的 MCU、SoC 分工正在改變,取而代之的是能夠在本地執行 AI 推論的 Edge AI MPU 與平台型架構。
在這個轉型中,Synaptics 的 Astra 平台與 SL 系列晶片,是一個非常具有代表性的案例。
一、Synaptics 的角色轉變:從周邊晶片到 Edge AI 平台
Synaptics 最早以觸控板、人機介面 IC 聞名,例如筆電 touchpad、音訊處理與感測控制晶片。
但近年其策略明顯轉向:
從「單一功能 IC 公司」轉型為「Edge AI 系統平台公司」
核心業務已經轉向:
- Edge AI SoC(SL 系列)
- AIoT 裝置平台
- 工業與智慧設備運算
- 視覺與語音 AI
這個轉型的核心載體,就是 Astra 平台。
二、Astra 是什麼?不是晶片,而是 AI 平台
Astra 並不是單一晶片,而是一個完整的 Edge AI 生態系統平台。
可以把 Astra 理解成:
「硬體 + AI軟體 + 開發工具鏈」的整合平台
它包含三個核心層級:
1. Edge AI SoC(SL系列晶片)
例如 SL2610 等晶片,屬於 Edge AI MPU / SoC。
其特點是:
- ARM Cortex-A 系列 CPU(Linux 運行)
- Cortex-M 控制核心(低功耗管理)
- Torq NPU(AI運算引擎)
- Coral AI 子系統(AI調度與控制)
- ISP / DSP / GPU(感測與多媒體處理)
這代表它不只是「運算晶片」,而是一個完整系統。
2. AI 運算架構:Coral + Torq 的分工設計
SL 系列最關鍵的設計,是 AI 運算被拆成兩個層級:
● Torq NPU(運算層)
負責:
- Tensor computation
- CNN / Transformer 推論
- 矩陣運算(GEMM)
- INT8 / INT4 低精度推論
本質是:
AI 的「算力引擎」
● Coral AI 子系統(控制層)
負責:
- AI graph scheduling
- operator dispatch
- memory orchestration
- runtime 管理
本質是:
AI 的「調度與控制系統」
這種設計的核心概念是:
AI 不再只是計算問題,而是「系統調度問題」
為什麼要拆成兩層?
因為 Transformer 時代的 AI workload 具有三個特性:
- memory bandwidth 壓力極高(KV cache)
- 計算圖是動態的(dynamic graph)
- latency 要即時(edge device)
如果只用單一 NPU,會同時承擔:
- 運算
- 排程
- 記憶體管理
效率會大幅下降。
因此拆分成:
- Torq(做運算)
- Coral(做系統控制)
三、Astra 的核心價值:AI-native 架構
Astra 的設計理念是「AI-native」,不是傳統 SoC 的延伸。
它的核心是:
以 AI 模型為中心,而不是以硬體為中心
1. 模型驅動架構
流程如下:
AI Model(PyTorch / ONNX)
→ Compiler(MLIR / IREE)
→ Runtime(Torq + Coral)
→ Hardware execution
意思是:
AI 是先設計模型,再映射到硬體,而不是反過來
2. Transformer-aware NPU
SL 系列特別強調:
- attention computation support
- KV cache optimization
- streaming inference
- multimodal AI support
代表它已經從 CNN 時代,進入 Transformer 時代。
3. Edge AI 本地推論
Astra 的目標不是雲端 AI,而是:
- AI camera
- smart speaker
- industrial vision
- robot
- smart appliance
讓 AI 在裝置端直接運行。
四、開發生態系:Astra 的真正護城河
Astra 的價值不只在晶片,而在整個開發生態。
包含:
1. SDK 與工具鏈
- model quantization(INT8 / INT4)
- ONNX / TFLite / PyTorch 支援
- compiler optimization
- performance profiling
2. Linux / Yocto 支援
- 完整 BSP
- driver(NPU / ISP / DSP)
- container support
3. 開發板與參考設計
例如 Coral Dev Board:
- camera / mic / sensor
- Wi-Fi / BT
- 預載 AI model demo
目的是降低 AI 開發門檻。
五、SL2610 的系統意義
SL2610 不只是晶片,而是 Edge AI node。
其架構可以簡化為:
- CPU:負責 OS 與應用
- Coral:負責 AI 任務調度
- Torq:負責 AI 計算
- DSP / ISP:負責感測與前處理
這是一個完整 AI system,而不是單一運算單元。
六、產業意義:Edge AI 正在從 MCU 時代轉向 MPU 時代
過去:
- MCU:負責控制
- AI:多在雲端
現在:
- MPU(Edge AI SoC):負責本地 AI 運算
關鍵差異在於:
| 類型 | 功能 |
|---|---|
| MCU | 控制導向 |
| MPU | AI + 運算平台 |
| Edge AI SoC | 本地智慧系統 |
七、核心趨勢總結
Astra 平台代表三個產業轉折:
1. AI 從 CNN → Transformer
AI 工作負載變成系統級問題
2. AI 從 compute → system
不只是算力,而是 scheduling + memory + runtime
3. Edge AI 從 MCU → MPU + NPU
裝置開始具備本地智能
八、結論
Synaptics 的 Astra 平台,本質上不是單一晶片產品,而是一個:
將 Transformer 等級 AI 推論能力帶入邊緣裝置的完整 AI 系統平台
其核心架構(Coral + Torq)反映了一個關鍵趨勢:
未來 AI 的競爭,不再只是算力,而是「AI 系統如何被編排與執行」。
留言
張貼留言