随着 AI 模型越来越强,即便是开源模型也能提供很不错的效能,可以满足多数任务需求,也因此很多人都会想在本地部署。 只不过如果要部署大参数模型,都需要使用昂贵的设备,不是每个人能负担,近日国外AI初创公司 Tiiny AI 公司就推出一款号称能解决这痛点,且也是世界最小的超级计算机「Tiiny AI Pocket Lab」,能在本地部署高达 120B 参数 LLM 大型语言模型,无需互联网。

号称全世界最小的超级计算机 Tiiny AI Pocket Lab 亮相! 口袋大小却可本地运行 120B 的 AI 模型
Tiiny AI 是一家美国 AI 新创公司,这次发布的全球最小个人 AI 超级计算机「Tiiny AI Pocket Lab」,看规格之前,有一个认证一定先要提一下。
根据 TechPowerUP 报导,这台超级计算机已经正式获得「全球最小 MiniPC(能在本地执行 100B LLM)」吉尼斯世界纪录的项目认证,相信很多人都没听过这个认证,我也没听过,似乎是首度向全球公开亮相。

Tiiny AI Pocket Lab 的体积非常小,只有 14.2x 8 x 2.53 公分,跟常见的 10,00mAh 行动电源尺寸差不多,重量部分也仅 300 克,可以放入口袋轻松携带出外。 Tiiny AI 官方声称这台可成功部署 1200 亿参数的模型(120B),不需要网络连线、服务器或高阶 GPU,非常适合进行「博士级推理、多步骤分析与深度语境理解」。
这么小的装置竟然能运行大型语言模型,真的不可思议。
Tiiny AI Pocket Lab 还非常省电,只会以 65 W 的功耗范围内运行,远低于传统 GPU 系统的能源与碳排放。

Tiiny AI 的 GTM 总监 Samar Bhoj 表示:
云端 AI 带来了巨大进展,但同时也造成依赖、脆弱性与可持续性挑战。 通过 Tiiny AI Pocket Lab,我们相信智慧不应属于资料中心,而应属于每一个人。 这是把大型模型能力从云端带到每一部个人装置,使其真正可及、隐私与个人的第一步。
根据 Tiiny AI 公开的信息,Tiiny AI Pocket Lab 支持一键安装 GPT-OSS、Llama、Qwen、DeepSeek、Mistral、Phi 等热门模型,并能快速部署常见的开源 AI 代理,如 OpenManus、ComfyUI、Flowise、Presenton、Libra、Bella、SillyTavern 等。

你可能会好奇,为何它能部署大型语言模型? 细节在其配备的独立NPU,可提供190 TOPS运算能力,同时也内置80GB LPDDR5X存储器。
不仅如此,官方也提到 Tiiny AI Pocket Lab 的核心在两大技术突破,这也使大型语言模型在极小的设备上运行
- TurboSparse:让 AI 运作更有效率的技术。 它就像是让大脑只动用当下需要的神经元,而不是每次都费力地全速运转。 这让 AI 在保持一样聪明的情况下,运算速度变得快非常多。
- PowerInfer:一款在 GitHub 上拥有超过 8000 颗星好评的开源引擎。 它能聪明指挥电脑里的 CPU 和 NPU 分工合作,来处理繁重的 AI 工作。 结果就是:你只需要消耗很少的电力,就能享受到媲美大型服务器的强大效能。
看到这边先别太兴奋,因为这产品目前还尚未正式推出,预计明年的CES 2026活动中会展出,实际是不是这么强大? 还是要等到看到实品才知道。 上市时间和售价信息也不清楚。
Tiiny AI Pocket Lab 规格表:
| 分类 | 规格 |
|---|---|
| 处理器 | ARMv9.2 12核心CPU |
| AI 运算能力 | 自家异构架构模块(SoC+ dNPU),约 190 TOPS |
| 内存与储存 | 80GB LPDDR5X RAM + 1TB SSD |
| 模型容量 | 可完全在设备上运行最高 120B 参数 LLM |
| 功耗效率 | 30W TDP,系统典型功耗约 65W |
| 尺寸与重量 | 14.2 ×8×2.53厘米,约300克 |
| 生态系统 | 一键部署多款开源 LLM 与 Agent Framework |
| 连接能力 | 可完全离线运作 — 不需要网络或云端 |
