從 2025 年底開始,DDR5 和 SSD 價格一路往上飆,到現在都還沒有要回頭的意思。原本以為 2026 年底應該會開始緩解,沒想到可能還早,接下來將有第二波壓力即將要進場:CPU。
根據韓國媒體 SE Daily 引述業界消息指出,由於代理式 AI 越來越火熱,CPU 廠正在規劃讓下一代 AI CPU 配上 300 ~ 400GB 的記憶體,意味著是現在 96 ~ 256GB 的 4 倍之多。換句話說,過去主要是 GPU 在搶記憶體,未來連 CPU 也要進來參一腳,玩家想要買原價的記憶體可能還有得等了。

AI 代理把 CPU 推上記憶體軍備競賽:單顆要塞 400GB,DRAM 缺到 2027 年
過去兩年的 AI 浪潮主要著重在大型語言模型訓練和推理,因此都吃 GPU 的運算能力,但隨著模型夠強,現在已經陸續進入到代理式 AI 的時代,不再是丟一個問題、給一個答案,而是讓模型像個真正的代理人一樣,會自動規劃步驟、呼叫外部工具、查資料、讀檔案、改程式碼、再回頭修正自己。
而這整套流程裡,更仰賴 CPU 來協調,不是 GPU。每一次工具呼叫、每一次 API 請求、每一次中間狀態的暫存與決策邏輯,都得靠 CPU 跑,GPU 只在「真的要用模型推理」時才出力。
Intel 就曾說過,AI 資料中心的 GPU 和 CPU 比例,已經從原本的 8:1 收斂到 4:1,未來甚至有機會逼近 1:1。Arm 則估計,傳統 AI 資料中心每 GW 大概需要 3,000 萬個 CPU 核心,但到了代理式 AI 時代,需求會跳到 1.2 億個核心,整整 4 倍。
而 CPU 要負責的不只是運算,還有 「context memory(上下文記憶體)」。
在連續執行任務時,會把對話紀錄、工具回傳結果、中間決策、可能要回頭重試的狀態通通暫存起來,這些都得放在 CPU 主記憶體裡,所以容量需求自然就拉高。原本一顆伺服器 CPU 配 96 ~ 256GB DRAM 還算夠用,到了代理式 AI 時代後會明顯不夠。
也因此,近日《SE Daily》就指出,CPU 製造商目前正計劃為其 AI CPU 配備 300 到 400 GB 的記憶體。
如果真的到 400GB,那就有點誇張,比 NVIDIA GB300、Vera Rubin 和 AMD MI350X 的 288GB HBM3E 還多。
不過 SE Daily 沒有提到 400GB 到底是指哪一種形式的記憶體,外媒 Wccftech 推測,有一個可能是指直接整合在 CPU 封裝內的高密度記憶體,也就是把 HBM 或正在發展中的 HBF、ZAM 等新標準直接做在 CPU 旁邊,類似 GPU 上 HBM 的設計。
另一種則是簡單暴力,單條 DIMM 記憶體容量達到 400GB。目前伺服器 CPU 平台只要把標準 DIMM 插滿,就能到 4 ~ 8TB,未來如果單條都有 400GB 的話,那總記憶體容量會相當恐怖。

