隨著 AI 模型越來越強,即便是開源模型也能提供很不錯的效能,可以滿足多數任務需求,也因此很多人都會想在本地部署。只不過如果要部署大參數模型,都需要使用昂貴的設備,不是每個人能負擔,近日國外 AI 新創公司 Tiiny AI 公司就推出一款號稱能解決這痛點,且也是世界最小的超級電腦「Tiiny AI Pocket Lab」,能在本地部署高達 120B 參數 LLM 大型語言模型,無需網際網路。
號稱全世界最小的超級電腦 Tiiny AI Pocket Lab 亮相!口袋大小卻可本地運行 120B 的 AI 模型
Tiiny AI 是一家美國 AI 新創公司,這次發表的全球最小個人 AI 超級電腦「Tiiny AI Pocket Lab」,看規格之前,有一個認證一定先要提一下。
根據外媒 TechPowerUP 報導,這台超級電腦已經正式獲得「全球最小 MiniPC(能在本地執行 100B LLM)」金氏世界紀錄的項目認證,相信很多人都沒聽過這個認證,我也沒聽過,似乎是首度向全球公開亮相。
Tiiny AI Pocket Lab 的體積非常小,只有 14.2x 8 x 2.53 公分,跟常見的 10,00mAh 行動電源尺寸差不多,重量部分也僅 300 克,可以放入口袋輕鬆攜帶出外。Tiiny AI 官方聲稱這台可成功部署 1200 億參數的模型(120B),不需要網路連線、伺服器或高階 GPU,非常適合進行「博士級推理、多步驟分析與深度語境理解」。
這麼小的裝置竟然能運行大型語言模型,真的不可思議。
Tiiny AI Pocket Lab 還非常省電,只會以 65 W 的功耗範圍內運行,遠低於傳統 GPU 系統的能源與碳排放。
Tiiny AI 的 GTM 總監 Samar Bhoj 表示:
雲端 AI 帶來了巨大進展,但同時也造成依賴、脆弱性與永續性挑戰。透過 Tiiny AI Pocket Lab,我們相信智慧不應屬於資料中心,而應屬於每一個人。這是把大型模型能力從雲端帶到每一部個人裝置,使其真正可及、隱私與個人的第一步。
根據 Tiiny AI 公開的資訊,Tiiny AI Pocket Lab 支援一鍵安裝 GPT-OSS、Llama、Qwen、DeepSeek、Mistral、Phi 等熱門模型,並能快速部署常見的開源 AI 代理,如 OpenManus、ComfyUI、Flowise、Presenton、Libra、Bella、SillyTavern 等。
你可能會好奇,為何它能部署大型語言模型?細節在其配備的獨立 NPU,可提供 190 TOPS 運算能力,同時也內建 80GB LPDDR5X 記憶體。
不僅如此,官方也提到 Tiiny AI Pocket Lab 的核心在兩大技術突破,這也使大型語言模型在極小的裝置上運行
- TurboSparse:讓 AI 運作更有效率的技術。它就像是讓大腦只動用「當下需要」的神經元,而不是每次都費力地全速運轉。這讓 AI 在保持一樣聰明的情況下,運算速度變得快非常多。
- PowerInfer:一款在 GitHub 上擁有超過 8000 顆星好評的開源引擎。它能聰明指揮電腦裡的 CPU 和 NPU 分工合作,來處理繁重的 AI 工作。結果就是:你只需要消耗很少的電力,就能享受到媲美大型伺服器的強大效能。
看到這邊先別太興奮,因為這產品目前還尚未正式推出,預計明年的 CES 2026 活動中會展出,實際是不是這麼強大?還是要等到看到實品才知道。上市時間和售價資訊也不清楚。
Tiiny AI Pocket Lab 規格表:
| 分類 | 規格 |
|---|---|
| 處理器 | ARMv9.2 12 核心 CPU |
| AI 運算能力 | 自家異質架構模組(SoC + dNPU),約 190 TOPS |
| 記憶體與儲存 | 80GB LPDDR5X RAM + 1TB SSD |
| 模型容量 | 可完全在裝置上運行最高 120B 參數 LLM |
| 功耗效率 | 30W TDP,系統典型功耗約 65W |
| 尺寸與重量 | 14.2 × 8 × 2.53 公分,約 300 公克 |
| 生態系統 | 一鍵部署多款開源 LLM 與 Agent Framework |
| 連線能力 | 可完全離線運作 — 不需要網路或雲端 |



