Apple Intelligence雖然已經推出一段時間,但我相信實際有在用的人一定很少,目前 Apple 自家的 AI 模型的能力跟 ChatGPT、Gemini、Claude 相比,還是差太多,不論是文字摘要、改寫、生圖還是 Siri 的對話品質,都不會讓人想日常使用。而這問題在 iOS 27 似乎有解決方案了,根據外媒最新報導,iOS 27 傳將內建一套「Extensions」的新機制,讓 iPhone 用戶可以改成使用第三方 AI 模型,像是 Google Gemini 或 Anthropic Claude,來驅動 Siri、書寫工具、影像樂園等 Apple Intelligence 功能。
iOS 27 傳將開放 Gemini、Claude 接手 Apple Intelligence
根據 Bloomberg 的報導,他們取得了 iOS 27 測試版本內部說明,Apple 對一個全新 Extensions 機制的定義是這樣寫的
Extensions allow you to access generative AI capabilities from installed apps on demand, through Apple Intelligence features such as Siri, Writing Tools, Image Playground and more.
簡單來說,就是你裝在手機上的 AI app(像 Gemini、Claude)可以變成系統 Apple Intelligence 功能背後的驅動來源,包括跟 Siri 對話、書寫工具改文章、影像樂園生圖,不用一定要使用 Apple 自己的模型,可以是你指定的第三方 AI。
而具體運作方式,Google 和 Anthropic 之後可將 Extensions 的支援性,加進它們現有 Gemini app 與 Claude app 裡,隨後於 App Store 上架後,用戶下載就能在 iOS 27 的設定裡,把這些第三方模型指定程 Apple Intelligence 各種功能的處理引擎。
外媒 MacRumor 推測設定選項可能在「設定 → Apple Intelligence 與 Siri」裡面,做成類似「預設瀏覽器」那種選單。理論上,你也能針對不同任務指派不同模型,如書寫工具用 Claude、影像樂園用 Gemini、一般查詢用 ChatGPT,看哪個模型強就用哪個。
還有一個蠻特別的地方,9to5Mac 報導中提到,Apple Intelligence 和第三方 AI 模型還能設定不同的 Siri 語音,也就是說,當你問 Siri 一個問題時,如果會讓第三方 AI 模型處理,那回答的聲音也會跟著切換,讓你可以立刻聽出是 Apple AI 回答的,還是第三方 AI。
不只是 iOS 27,iPadOS 27 和 macOS 27 預計也會導入 Extensions。


