

近日,NVIDIA 在 Jetson AI Lab 正式推出 OpenClaw(小龙虾)的专属部署教程,让用户可在 Jetson 边缘计算设备上搭建 100% 本地运行的 AI 个人助手,全程无需调用任何云端 API,仅通过 WhatsApp 即可实现智能交互与设备操控。这款被称作 “小龙虾” 的 OpenClaw 并非普通聊天机器人,而是能真正 “动手做事” 的智能代理,结合 Jetson 的边缘算力,为用户打造了数据私有、响应高效的本地 AI 体验。
OpenClaw 是一款开源的个人数字助手,核心优势在于本地运行、自主可控,它能实现文件管理、网页浏览、应用控制等实操功能,还可通过 WhatsApp、Discord 等社交平台接收指令,同时会持续记忆用户的使用习惯与偏好,适配个性化的自动化需求。而 NVIDIA 此次的教程,让 Jetson 设备成为了运行 OpenClaw 的理想载体,实现了边缘端 AI 智能体的完整落地。
教程地址:https://www.jetson-ai-lab.com/tutorials/openclaw
要在 Jetson 上部署 OpenClaw,硬件与基础配置需满足 NVIDIA 的专属适配要求,整体准备门槛低,核心要求如下:
设备:仅支持 Jetson AGX Thor 或 Jetson AGX Orin,不同设备对应专属 JetPack 版本(Orin 用 JP 6、Thor 用 JP 7);
存储:推荐搭配 NVMe SSD,满足本地大模型权重的存储需求;
账号与终端:免费的 Hugging Face 账号(用于下载模型)、安装了 WhatsApp 的手机一部;
核心能力:需保证模型支持工具调用,这是 OpenClaw 实现实操功能的关键。
NVIDIA 测试发现,混合专家模型(MoE)如 Nemotron 3 Nano 30B-A3B、Qwen 3.5 35B-A3B 等,与 OpenClaw 适配性最佳,能更高效地完成指令执行。
NVIDIA 的教程将 OpenClaw 的部署流程简化为 6 个核心步骤,全程通过命令行操作,无需复杂的开发能力,完成后即可实现 WhatsApp 与 Jetson 本地 AI 助手的联动:
这是本地运行的核心基础,先导出 Hugging Face 令牌,再根据 Jetson 设备型号(Thor/Orin)执行专属 Docker 命令,通过 vLLM 启动模型服务,同时可清理 GPU 内存缓存保证运行效率,最后通过 curl 命令验证模型是否成功部署。
OpenClaw 的运行依赖 Node.js 22 及以上版本,通过官方脚本一键安装后,验证版本即可完成基础环境配置。
使用 npm 命令全局安装最新版 OpenClaw,通过openclaw --version验证安装结果,完成工具本身的部署。
执行带跳过守护进程参数的配置命令,依次完成 vLLM 模型提供者配置(填写本地地址、自定义 API 密钥、精准输入模型名)、WhatsApp 渠道绑定(扫描终端二维码、填写国际格式手机号),同时可选择跳过技能安装与云端 API 密钥配置(纯本地部署)、勾选钩子功能实现指令自动化。
通过 nohup 命令让网关后台运行并记录日志,数秒后执行状态检测命令,确认 WhatsApp 渠道已启用并连接,即完成网关启动。
OpenClaw 会作为二级设备绑定到 WhatsApp 账号,用户只需在 WhatsApp 中 “给自己发消息”,即可向 Jetson 上的 OpenClaw 发送指令,首次消息因模型预热可能稍慢,后续交互响应将大幅提升。
此外,WhatsApp 内置了/status(查看会话信息)、/new(重置会话)、/model(切换模型)等快捷命令,无需调用大模型即可快速操作,进一步提升使用体验。
将 OpenClaw 部署在 Jetson 设备上,并非简单的 “硬件 + 软件” 组合,而是 NVIDIA 边缘计算生态与智能代理工具的深度融合,为用户带来了云端 AI 助手无法比拟的价值,核心体现在四大方面:
全程本地运行意味着用户的所有指令、会话记录、设备操作数据均存储在 Jetson 设备中,无需上传至任何云端服务器,从根源上避免了数据泄露风险。同时教程中网关默认绑定本地主机,仅允许设备内访问,结合边缘端的隔离性,大幅降低了提示注入等网络攻击的可能性,尤其适合对数据隐私要求高的个人与小型团队。
与传统云端 AI 助手不同,Jetson+OpenClaw 的组合完全脱离云端 API,无需支付任何模型调用费用,实现了 “一次部署,永久使用”。同时,所有计算与指令执行均在边缘端完成,即使在无网络或弱网络环境下,依然能正常响应 WhatsApp 指令,打破了网络对 AI 助手使用场景的限制。
Jetson 作为专业的边缘计算设备,具备强大的本地 GPU 算力,能快速完成大模型的推理与工具调用,相比云端 AI 助手的 “指令上传 - 云端计算 - 结果返回” 流程,本地部署的 OpenClaw 响应延迟大幅降低,对文件管理、应用控制等本地设备操作的执行效率提升尤为明显,真正实现 “指令发出,即刻执行”。
OpenClaw 的自动化能力与 Jetson 的边缘部署特性结合,让用户可打造专属的 “本地数字分身”:既能通过 WhatsApp 远程向 Jetson 下达指令,实现设备的远程操控,也能配置个性化钩子与技能,让 OpenClaw 自动完成价格监控、文件整理、日常工作流自动化等任务。同时,Jetson 设备的低功耗特性,支持 OpenClaw7×24 小时后台运行,让智能代理真正实现 “全天候待命”。
NVIDIA 为 Jetson 设备定制了专属的 OpenClaw 部署脚本与模型优化方案,如针对 MoE 模型的 FlashInfer 加速、GPU 内存利用率优化等,让模型在 Jetson 上的运行效率达到最优。同时,OpenClaw 支持后续安装各类技能插件、对接更多本地工具,结合 Jetson 丰富的外设与接口,可轻松扩展至智能家居控制、工业边缘监控等更多场景,实现边缘 AI 的无限可能。
NVIDIA 此次推出的 Jetson 版 OpenClaw 部署教程,不仅让边缘计算设备拥有了真正的智能代理能力,更让 “本地 AI 助手” 从概念落地为可实操的方案。Jetson 的边缘算力为 OpenClaw 提供了高效的运行底座,而 OpenClaw 则让 Jetson 的价值从单纯的计算硬件升级为 “能听会做” 的智能边缘终端。
对于用户而言,这种组合既实现了 AI 助手的自主可控与隐私保护,又摆脱了云端的束缚与成本,无论是个人日常的自动化需求,还是小型团队的边缘端智能管理,都能找到完美的适配场景。随着 OpenClaw 社区的不断发展,以及 Jetson 边缘计算生态的持续完善,本地智能代理的应用场景还将不断拓展,而 NVIDIA 的这一教程,无疑为边缘 AI 的普及打开了新的大门。