想像一下,有天你不需要打字、不需要切換 App,甚至不用盯著螢幕滑來滑去,只要開口說句話,Google 就能像聊天機器人一樣聽你說、幫你查資料、還會用語音回覆你,而且還能接著問第二題、第三題,不用重新輸入、不用重新操作。這不是未來幻想,這就是 Google 最新推出的「Search Live」。
這項語音互動功能目前已在美國正式上線,適用於 Android 和 iOS 上的 Google App,用戶只要進入 Labs 實驗功能,開啟「AI 模式」,就能體驗。它結合了 Google 自家的 Gemini AI 模型,能讓搜尋變得像聊天一樣自然。最棒的是,就算你臨時切換到其他 App,也能繼續對話不中斷,整個互動體驗幾乎無縫接軌。
▲圖片來源:Google
Google 搜尋升級 AI 模式, Google Search Live 讓你邊講邊查還能跨 App 對話
Google 在今天正式在美國率先推出了「Search Live」,這是一種基於 Gemini 模型的新型語音搜尋互動方式。只要你是 Google Labs 的用戶,在 Android 或 iOS 上更新 Google App,進入 Labs 裡啟用「AI 模式」後,就會看到一個新的「Live」圖示。後續 Search Live 這功能也將陸續在更多國家開放。
點下去,不需要輸入關鍵字、不需要打字,只要直接說出你的問題,Search Live 就會馬上用語音回應你。例如你問:「亞麻洋裝要怎麼收才不會皺?」Google 會用自然的語音告訴你:「可以把洋裝對折後用塑膠袋包起來再捲起來,這樣比較不容易起皺。」
接著你還可以馬上追問:「那如果還是皺了怎麼辦?」AI 也會立刻給出建議,像是用吹風機或飯店熨斗處理,並補上參考網頁連結。而且整個過程不需要反覆點選圖示或切換畫面,真正做到像「聊天」一樣順暢。
▲圖片來源:Google
Google 表示,Search Live 是為了讓用戶在「忙碌時」也能方便查詢資訊而設計的。例如你在整理行李、準備出門,手上沒空打字,就能邊做事邊說話,AI 幫你找資料、整理資訊,讓搜尋變得更像日常助手。
更厲害的是,Search Live 支援背景運作,也就是說你即使中途切換到其他 App,例如查看地圖、開行事曆,也不會中斷與 AI 的對話。AI 會持續聽你說話並回應,真正實現「邊查邊用」的多工應用。
▲圖片來源:Google
另外還有幾個貼心的小細節:
- 即時文字紀錄: 回應內容除了語音,還會同步顯示文字版本,方便複習。
- 支援打字輸入: 如果你臨時不方便講話,也可以直接改用打字方式繼續聊天。
- 對話紀錄保存: 所有你和 AI 的互動都會存在 AI 模式的歷史紀錄中,方便日後查閱或重用。
雖然目前版本的 Search Live 還不支援透過相機拍照提問,但 Google 已經公開表示,這項功能正在開發中,預計未來幾個月就會上線。一旦相機互動開放,你就可以直接拍下眼前的物品,然後問:「這是什麼植物?」或「這雙鞋哪裡買得到?」Search Live 會以語音形式回答,結合視覺與語音的雙重查詢體驗,未來感十足。
語音互動功能其實不是 Google 獨創,像 OpenAI 早在去年就推出了 ChatGPT 的「Advanced Voice Mode(進階語音模式)」,而 Anthropic 在今年 5 月也替 Claude App 加入了語音模式。Apple 更是持續開發新的「LLM Siri」,但因為穩定性未達預期,目前仍處於延後推出狀態。
那麼 Google 的 Search Live 有什麼獨特之處?
最大差別就是它整合在搜尋引擎本體,不是獨立 App,不是外掛機器人,而是讓你原本的搜尋行為,轉變成更自然、流暢的語音互動。這種結合方式讓使用者不必切換工具或適應新平台,熟悉的搜尋經驗直接升級為「用說的就能查」。
此外,Search Live 的「多輪對話」也很成熟,你可以一問再問,AI 會根據上下文延續話題,不會像傳統語音助手那樣,每次都得重新開場。
結語
Google 這次推出的 Search Live,某種程度上可以說是把搜尋進化成了「語音導覽式聊天助理」,不再只是單方面查資料,而是可以真正「對話」。即便目前只開放給美國 Labs 用戶試用,功能也還在逐步更新中,但可以想見,未來如果支援中文語音對話,會大幅改變我們與手機的互動方式。從打字查詢,到拍照提問,現在進化到「用說的」就能獲得答案,Google 的搜尋真的越來越像在和一個懂很多的朋友聊天了。
延伸閱讀:
韓國 Apple Pay 終於能搭車!將支援 Tmoney 搭地鐵、公車免掏卡, iPhone、Apple Watch 一機搞定