雖然網路上有很多 AI 服務都能免費用,但對於注重隱私,或不想自己數據被上傳的人,一定還是會想用本地 AI 模型。而本地 LLM 應用程式是不錯的選擇,但上網要用時,都需要切換來切換過去,稍微麻煩一點,這篇就要推薦一款很不錯用的 NativeMind 瀏覽器擴充功能,可調用本地 Ollama 下載的 LLM 模型,並於瀏覽器側邊欄直接跟 AI 聊天,無需切換,甚至賦予 AI 閱讀網頁的能力,意味著你不需要再貼內容給 AI,指定網頁標籤頁後,就能開始對話。
NativeMind 介紹和操作教學
NativeMind 是一款開源的 Chrome 擴充功能,有在 GitHub 上分享原始程式碼,有需要的人可以自行去看看。
我測試 Microsoft Edge 也能安裝使用,因此基本上只要是 Chromium 核心開發的瀏覽器,應該都能用,不僅限於 Chrome。
有一點要注意是,NativeMind 搭配的是 Ollama,因此你的電腦必須裝 Ollama 才能調用 LLM 模型。Ollama 安裝方式很簡單,到官網下載安裝檔後,一直按下一步就安裝完成:
Ollama 是一款命令列工具,聊天、模型管理等,都是透過命令提示字元(終端機)進行,對部分用戶來說可能會覺得好像很難,但實際很簡單,等等後面會跟你說該怎麼下載 LLM 模型,以及 Ollama 的常用指令有什麼。先來取得 NativeMind。
按上方連結進到 NativeMind 的 Chrome 商店頁面後,按右上角的取得:
會跳出類似訊息,按新增擴充功能:
安裝好後,記得將 NativeMind 釘選在右上角圖示列,未來要用時,按一下擴充功能,側邊欄就會出現:
如果你的 Ollama 已經有下載 LLM 模型,可於上方選單中挑選要用的模型,像我已經有下載很多:
選好後即可開始聊天,NativeMind 預設會讀取當前的網頁,如果你是想要知道這網頁的相關答案,可直接向 AI 詢問:
按旁邊的 + 可以切換問其他你已經打開的網頁標籤頁:
為了確認真的是調用本地 Ollama 下載的 LLM 模型,我下載一個還沒有裝的模型,qwen3,這裡可以找到 Ollama 可安裝的模型選單:
qwen3 有多種版本,我下載 qwen3:8b 這一個,滑鼠移到模型名稱右邊就會出現複製按鈕,按一下即可快速複製:
接著打開命令提示字元(終端機),輸入 ollama run qwen3:8b
(run 後面是模型名稱,就填你要下載的),接著就會開始下載:
下載完成後,回到 NativeMind 擴充功能,於選單中就能看到該模型了(我下載的是 qwen3:8b):
看國外文章時,可以要求 AI 翻譯整篇內容:
另外在設定中,其實也能下載模型(Downloadable Model),但不是所有模型都有列出,如果有你要的,或覺得命令提示字元不好用,也可以從這邊選擇下載:
大多常用的模型都有:
設定下方還能設定 Prompt 提示詞,有需要的人也可以調整。
我也注意到,NativeMind 似乎沒有儲存歷史聊天記錄的功能,如果你想要保存,記得手動備份。