我們的顧問約翰·曾(John Tsang)昨天發簡訊給我:「看到一個250美元的AI設備。我應該買嗎?」
我盯著手機看了一秒。我知道他在看什麼——那種包裝上印有「AI」字樣的小型開發板(由黃仁勳交付),價格標籤讓人心動。兩百五十美元?為了AI?這比在中環吃晚餐還便宜。
但關於2026年的AI硬體軍備競賽,有一點是確定的:你得到的正是你所支付的。價格並不是隨機的。一旦你了解這些機器實際上是為了三個目的而建造的,這一切就變得非常合乎邏輯。玩耍與人工智慧,執行人工智慧,和訓練人工智慧。
在你打開錢包之前,你需要知道你實際上想要參加哪個遊戲。
快速蘋果側邊欄
如果你使用的是搭載蘋果矽晶片的Mac,你大多數情況下不在這個對話中。M系列神經引擎在大多數消費者任務中完美處理本地人工智慧。但如果你想進入主導的開源生態系統——CUDA、PyTorch和Nvidia堆疊的世界——你就需要考慮Windows或Linux。這就是接下來的內容所適用的地方。
在那個世界中,定價依賴於三個限制:物理大小、計算能力,以及——最關鍵的——顯示記憶體 (VRAM)市場實際的劃分如下。
第一級:$250–$500(玩具工程師的玩物)
這些是單板電腦,如Nvidia Jetson Orin Nano。想像一下有抱負的樹莓派。小型、低功耗,設計用於安裝在實體物品上。
它們實際上做的是邊緣人工智慧 (edge AI)。你可以將它們放入機器人、無人機、工廠感測器、智慧相機等設備中—這些設備需要在不聯繫雲端的情況下做出本地決策。物體檢測、計算機視覺、對預訓練模型的基本推斷。
約翰的$250單板?如果他正在建造一輛自導航的遙控車或一個辦公室的智慧監視器,那是完美的選擇。如果他期望它能在本地運行ChatGPT或生成圖像,那就糟糕了。這不是一台便宜的電腦,而是專為實體物品設計的專用大腦。
第二級:$1,500–$3,000(日常使用者)
這是95%的人應該選擇的範疇。標準的Windows塔式電腦或高端筆記型電腦,配備消費級的Nvidia顯示卡—RTX 4070、50系列顯示卡等。
這些機器擁有足夠的馬力來運行 量子化的 LLMs 本地運行 幾乎沒有延遲。您可以離線生成圖像,加速視頻渲染,並且——至關重要的是——在自己的硬體上運行強大的 AI 助手,而無需將專有數據上傳到 OpenAI 的伺服器。
對於知識工作者、內容創作者或開發者來說,這是最佳選擇。您獲得隱私。您獲得速度。您不需要雲端來處理每一個想法。如果您目前因為「更簡單」而將客戶數據粘貼到 ChatGPT 中,這個層級僅在降低風險方面就能自我回本。
第三層:$4,000–$6,000+(工廠)
這些是配備頂尖 GPU 的大型塔式電腦——RTX 4090/5090 或專業的 Ada 顆粒。差異不僅在於速度。還在於 VRAM 。
運行現有模型(推理)就像閱讀一本書。從零開始訓練或微調模型就像編寫一個圖書館。您需要記憶空間來存放 GPU 工作記憶體中的大量數據集。嘗試在筆記型電腦上微調基礎模型,系統將會窒息。
您只有在製造其他人所需的演算法時才會購買這個層級。數據科學家、AI 研究人員、渲染大型 3D 環境的工作室。如果您的工作是創建 模型,而不僅僅是 使用 它們,你需要記憶空間。
真正的問題
我沒有告訴約翰是或不是。我問他: 「你想消除的具體瓶頸是什麼?」
硬體不是地位的象徵。它是你操作策略的實體形式。為你的桌面購買250美元的邊緣節點,你將因為計算能力不足而無法運作。為基本的電子郵件撰寫購買5000美元的工作站,你就浪費了人才預算在閒置的矽晶片上。
將機器與工作匹配。其他的一切只是購物療法。
— 詹姆斯,水星科技解決方案,香港,2026年5月

