1. 絕對護城河:未來三年「沒有任何取代品」
從計算機運作的底層物理架構(馮·紐曼架構)來看,運算與記憶體是必然分離的。CPU/GPU 跑得再快,只要沒有足夠的高速暫存(DRAM)與非揮發性儲存(Flash),系統就無法運作。
新技術難成氣候: 雖然學界一直在研發 MRAM、ReRAM 等次世代記憶體,但受限於材料物理特性與極高昂的製造成本,未來 3 到 5 年內,絕對不可能撼動 DRAM 與 Flash 的統治地位。
軟體壓縮的極限: Google 的 TurboQuant 等軟體技術能優化演算法,但這叫「提升效率」,在實體物理定律下,它無法憑空變出儲存空間。效率越高,引發的應用需求就越大(傑文斯悖論),最終對實體記憶體的需求總量依然是向上噴發的。
2. 供給端的三年死結:產能排擠效應 (Supply Crowding-out)
這是支撐華邦電長線基本面最堅硬的磐石。
蓋一座晶圓廠需要 3 年: 記憶體是重資本支出的產業。現在三星、海力士、美光為了追逐高毛利的 AI 伺服器 HBM,瘋狂將原本生產 DDR3、DDR4(一般型與利基型記憶體)的機台改機。HBM 消耗的矽晶圓面積是一般 DRAM 的數倍,這直接導致了中低階記憶體的「結構性供給真空」。
華邦電的絕佳戰略位置: 三大原廠退出中低階市場留下的龐大真空,未來三年將全數由台廠(華邦電、南亞科)吃下。在沒有新產能開出的情況下,華邦電將掌握極強的定價權,這也是為什麼矽創等供應鏈已經開始啟動實質漲價的原因。
3. 需求端的質變:AI 從「雲端」下沉到「邊緣 (Edge)」
如果說過去一年是雲端 AI 伺服器(HBM 的主戰場)的爆發期,那麼未來三年就是「邊緣 AI (Edge AI)」的黃金期。
終端設備的剛需: 接下來的 AI PC、AI 手機、智慧車載與聯網機器人,不可能隨時連線雲端運算,必須在本地端執行 AI 模型。這會強迫所有終端設備的基礎記憶體容量翻倍(例如手機從 8GB 跳升至 16GB,PC 從 16GB 跳升至 32GB 起跳)。
NOR Flash 的隱形爆發: 每一台 Edge AI 設備都需要存放 AI 開機韌體與本地端演算法,這需要高容量、高穩定性的 NOR Flash。作為全球第一大 NOR Flash 供應商,未來三年這些海量終端設備的換機潮,就是華邦電實質營收成長的保證。
4. AI 伺服器的隱形剛需:BMC 與 NOR Flash
大家目光都盯著 AI 伺服器裡的 GPU 和 HBM,卻忽略了周邊的基礎元件。
AI 伺服器比傳統伺服器昂貴且複雜數十倍,因此需要更高階的遠端伺服器管理晶片 (BMC) 來監控溫度、電壓和運作狀態。
每一顆 BMC 旁邊,都需要搭配高容量的 NOR Flash 來儲存開機程式碼與韌體。而華邦電正是全球第一大的 NOR Flash 供應商。雖然單價不如 HBM,但隨著 AI 伺服器出貨量暴增,這塊的實質訂單是確確實實落在華邦電口袋裡的。
沒有留言:
張貼留言