约翰·曾,我们水星公司的一位顾问,昨天给我发了短信:“看到一台250美元的AI设备。我应该买吗?”
我盯着手机看了一会儿。我确切地知道他在看什么——那些带有“AI”字样的光滑小巧的开发板之一(由黄仁勋交付)和一个触发蜥蜴大脑的价格标签。两百五十美元?对于人工智能?这比在中央区吃晚餐还便宜。
但是关于2026年人工智能硬件军备竞赛的事情是这样的:你得到你所支付的。定价不是随机的。一旦你理解了这些机器实际上是为了三件事而建造的,它就是残酷的逻辑:玩人工智能,运行人工智能,和训练人工智能。
在你打开钱包之前,你需要知道你实际上想加入哪个游戏。
快速苹果侧边栏
如果你使用的是搭载苹果芯片的Mac,你基本上不在这次讨论的范围内。M系列神经引擎为大多数消费级任务处理本地AI非常出色。但如果你想进入占主导地位的开源生态系统——CUDA、PyTorch和Nvidia堆栈的世界——你将需要考虑Windows或Linux。这就是接下来内容适用的地方。
在那个世界里,定价基于三个限制因素:物理尺寸、计算能力,以及最关键的——显存以下是市场实际的划分方式。
第一层级:250美元至500美元(修补匠的玩具)
这些是像Nvidia Jetson Orin Nano这样的单板计算机。想象一下有抱负的树莓派。体积小,功耗低,设计用于嵌入物理设备中。
他们实际上做的是边缘人工智能。你可以将它们安装在机器人、无人机、工厂传感器、智能摄像头等设备中——这些设备需要在不向云端发送请求的情况下做出本地决策。目标检测、计算机视觉、基于预训练模型的基本推理。
约翰的250美元主板?如果他正在建造一辆能够自我导航的遥控汽车或为他的办公室安装一个智能安全摄像头,那么这个主板非常合适。如果他期望它能够本地运行ChatGPT或生成图像,那就糟糕了。它不是一台便宜的电脑。它是为物理对象设计的专用大脑。
第二档:1500-3000美元(日常驱动器)
这是95%的人应该选择的范围。标准的Windows台式机或配备消费级Nvidia GPU的高端笔记本电脑——RTX 4070、50系列显卡,那个范围。
这些机器有足够的性能来运行本地量化的大型语言模型几乎零延迟。你可以离线生成图像,加速视频渲染,并且——至关重要的是——在不将专有数据上传到OpenAI服务器的情况下,在你自己硬件上运行强大的AI助手。
对于知识工作者、内容创作者或开发者来说,这是最佳选择。你获得了隐私。你获得了速度。你不需要为每一个想法都依赖云服务。如果你目前正在将客户数据粘贴到ChatGPT中,因为它“更容易”,那么这个级别仅通过降低风险本身就能为自己买单。
三级:4000美元至6000美元+(工厂级)
这些是配备顶级GPU的巨大塔式机——RTX 4090/5090或专业的Ada卡。差异不仅仅是速度。它是显存。
运行现有模型(推理)就像阅读一本书。从头开始训练或微调模型就像写一个图书馆。你需要内存空间来在GPU的工作内存中保存大量数据集。尝试在笔记本电脑上微调基础模型,系统将直接窒息。
你只有在制造其他人消费的算法时才会购买这个级别。数据科学家、AI研究人员、渲染大型3D环境的工作室。如果你的工作是创建这些模型,不仅仅是使用它们,你需要足够的内存空间。
真正的问题
我没有告诉约翰是或否。我问他:“你试图消除的特定瓶颈是什么?”
硬件不是地位的象征。它是你运营策略的物理形式。为你的桌面购买250美元的边缘节点,你将因计算能力不足而瘫痪。购买5000美元的工作站来起草基本的电子邮件,你就在闲置的硅片上浪费了人才预算。
将机器与工作相匹配。其他一切都是购物疗法。
— 詹姆斯,香港水星技术解决方案,2026年5月

