隨著生成式 AI 從模型訓練一路延伸到推論部署、資料搬移與大規模雲端調度,市場焦點雖然長期放在 GPU,但真正支撐整體 AI 系統穩定運作的底層基礎設施,正在重新把 CPU 與各類基礎設施加速晶片推回舞台中央。Intel 與 Google 於 2026 年 4 月 9 日宣布擴大雙方既有合作,簽下多年期 AI 與雲端基礎設施合作協議,除了確認 Google Cloud 將持續在多種工作負載中部署 Intel Xeon 處理器,也將擴大共同開發客製化 ASIC 型基礎設施處理單元(IPU),顯示在 AI 時代的超大規模資料中心競爭中,單靠 GPU 已不足以定義勝負,如何打造平衡、可擴充且高效率的異質化系統,才是下一階段關鍵。
Intel 與 Google 簽下多年期 AI 基礎設施合作案
Google Cloud 持續採用 Xeon,合作案橫跨多個世代平台
根據 Intel 公布的內容,這份新合作將橫跨多個世代的 Intel Xeon 平台,目標是提升 Google 全球基礎設施在效能、能源效率與整體持有成本上的表現。Google Cloud 將持續在 AI、推論以及一般用途運算等場景中使用 Intel Xeon,包含目前已應用於 C4 與 N4 執行個體的 Xeon 6 處理器。Intel 特別強調,當 AI 工作負載規模持續擴張後,CPU 的角色不再只是傳統主機處理器,而是負責協調、資料處理與系統層級運作的重要中樞,因此 AI 並不是只靠加速器在跑,而是靠整套系統共同完成。
Intel and @Google announce a multiyear collaboration to advance AI and cloud infrastructure.
🔹 Intel® Xeon® processors continue powering Google Cloud AI, inference, and general-purpose workloads
🔹 Expanded co-development of custom ASIC-based IPUs
🔹 A balanced, heterogeneous… pic.twitter.com/B93MI3NtNl— Intel News (@intelnews) April 9, 2026
雙方同步擴大 IPU 共同開發,強化 AI 資料中心底盤效率
這次合作另一個更值得注意的重點,是雙方將擴大共同開發客製化 ASIC 型 IPU。Intel 說明,這類可程式化加速器主要用來將網路、儲存與安全等基礎設施任務,從主 CPU 上卸載出去,進而改善整體資源使用率、提升能效,並讓超大規模 AI 環境中的系統表現更可預測。換句話說,當市場一窩蜂追逐 GPU 訓練效能時,Google 與 Intel 正同步投資那些會直接影響大型資料中心吞吐量、延遲、能源效率與擴充能力的基建層。這也凸顯出,未來 AI 雲端服務的競爭,不只是哪家有更多算力,而是哪家能更有效率地把各種算力、網路與資料流整合成一個能穩定擴張的系統。
Google 並未把 AI 未來押注單一加速器,而是採異質化配置
從 Google 的角度來看,這份合作延續了雙方將近 20 年的關係,也再次說明即使 Google 早已在 AI 領域擁有 TPU 等自研加速器,其雲端平台與大規模 AI 基礎設施依然高度依賴通用 CPU 與基礎設施加速元件的協同。Google AI Infrastructure 資深副總裁兼首席技術專家 Amin Vahdat 表示,從訓練編排、推論到部署,CPU 與基礎設施加速仍然是 AI 系統的核心基石,而 Intel 的 Xeon 路線圖讓 Google 對於未來持續滿足工作負載對效能與效率的需求抱持信心。這段表述顯示 Google 並未把未來 AI 基礎設施單純押注在單一類型加速器上,而是採取更實際的異質化配置策略。
對 Intel 而言,這不只是訂單,也是 AI 系統架構話語權之爭
對 Intel 而言,這項合作案的戰略意義也相當直接。近年 AI 熱潮讓市場注意力大量集中在 GPU 與高頻寬記憶體供應鏈上,使傳統 CPU 廠商看似聲量被蓋過,但實際上,當企業開始大規模部署生成式 AI 服務,CPU 在資料前處理、任務調度、推論支援、虛擬化、網路與儲存管理等環節的重要性反而被重新凸顯。Intel 執行長 Lip-Bu Tan 在聲明中指出,AI 正在重塑基礎設施建置與擴張方式,而 AI 的擴展需要的不只是加速器,更需要平衡的系統,CPU 與 IPU 正是滿足現代 AI 工作負載對效能、效率與彈性需求的核心元件。這番說法顯然不只是產品宣傳,更像是 Intel 對外釋出的產業論述,也就是在 AI 基礎建設競賽中,Intel 要搶的不只是算力晶片市場,而是整體系統架構話語權。
Google Cloud 將持續使用 Intel Xeon,包括最新的 Xeon 6 處理器來處理 AI、雲端與推論任務,同時也將持續與 Intel 共同開發處理器。報導並提到,在 GPU 負責模型訓練之際,CPU 在執行 AI 模型與整體 AI 基礎設施中依舊扮演關鍵角色,這也是近期市場對 CPU 需求持續升高的重要背景之一。
Intel 與 Google 都認為,下一代 AI 驅動的雲端服務,需要更強的底層基礎,而這份合作正是為了支撐企業、開發者與終端使用者未來持續成長的需求。這個說法雖然仍偏官方語言,但放在目前全球雲端業者競逐 AI 平台主導權的背景下,可以看出兩家公司都希望搶先把異質整合、平衡算力、提高基建效率這套邏輯,提前固化為未來大型 AI 雲端服務的標準框架。
真正的競爭焦點,已從單點晶片走向整體系統整合能力
如果把這起合作放到更大的產業脈絡來看,Google 與 Intel 的動作,某種程度上也反映出 AI 基礎設施競賽正從誰有最強單點晶片,走向誰能整合出最有效率的大規模系統。當 AI 模型規模變大、推論需求暴增、企業用戶導入更廣泛的生成式 AI 服務後,資料中心面臨的瓶頸早已不是只有訓練速度,而是如何降低系統複雜度、如何減少能源消耗、如何提升整體資源利用率,以及如何讓平台在擴張時不至於失控。從這個角度來看,Intel Xeon 加上客製化 IPU 的組合,未必是最吸睛的宣傳主角,卻很可能是 Google Cloud 在下一波 AI 基礎建設中最務實、也最關鍵的底盤之一。
