在Jetson Orin Nano上基于Ollama私有化部署OpenClaw

媳妇工作需要调研AI,尤其OpenClaw在工作场景中的应用。不少帖子建议买个Mac Mini小巧省电24小时待机,我手头正好有个闲置的Nvidia Jetson Orin Nano 开发板,性能也强的很67 TOPS,打算拿来用作本地部署的载体。在此记录一下过程,小伙伴有闲置Jetson也可以参考一下利用起来。

对于一个新拿到手的Jetson Orin Nano Developer Kit,官方的NVIDIA SDK Manaer真是好使用,媲美树莓派的官方系统烧录工具,基本上就说鼠标点点点就行了。如果硬盘足够的话建议在工具页面将所有的依赖都一次性都勾上都安装好,省的系统装好后再费劲解决CUDA、cuCNN等依赖。

XXX

XXX

系统装好后,插上网线,从路由器端找一下IP,登录就可以开始装OpenClaw和基于Ollama的本地大模型了。先使用Ollama本地部署大模型,目前Ollama已经给Jetson适配过了从而调用GPU,如果看脚本中也可以看到对于Jetson使用的是Jetpack的环境而不是自己装的CUDA环境,直接运行就OK:

curl -fsSL https://ollama.com/install.sh | sh

从安装进度可以看到过程中下载安装了Jeston独有的一些库:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
jetson@ubuntu:~$ curl -fsSL https://ollama.com/install.sh | sh
>>> Cleaning up old version at /usr/local/lib/ollama
>>> Installing ollama to /usr/local
>>> Downloading ollama-linux-arm64.tar.zst
######################################################################## 100.0%
>>> Downloading ollama-linux-arm64-jetpack6.tar.zst
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> NVIDIA JetPack ready.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
jetson@ubuntu:~$

然后运行ollama命令,尝试了用默认的的gemma4:e4b直接不能启动,看日志申请了将近10G内存,那肯定满足不了,果然OOM推掉了,查看谷歌官方对资源的需求(https://ai.google.dev/gemma/docs/core?hl=zh-cn),感觉还是老老实实用e2b吧:

ollama run gemma4:e2b

同时建议给Jetson再多加一些Swap,我已经在配置Jetson时候弄好了,需要的朋友参考这篇指导:https://blog.shuspieler.com/66/

从上图可以看到,即使是2b的模型,几乎到达了Jetson能够承载的极限,8G CPU/GPU公用内存和8G的Swap几乎占满。考虑到OpenClaw也需要一些资源,所以如果考虑到稳定性和性能的话,建议就使用2b不要去强求4b了。

另外由于Jetson放在家里路由器没有直接连接公网,并且有时候OpenClaw会跑崩,所以远程调试也是很有必要的。我使用的解决方案是俗称互联网界活菩萨的Claudflare家的ACCESS

最终的效果是我可以通过网页便捷连接SSH,以及通过网页连接OpenClaw的Dashboard。

效果非常不错,不需要在局域网范围内,如果需要有设置小龙虾的需求,也可以随时随地设置。

然后是给小龙虾装虾脑,在使用订阅的Kimi的大模型同时,考虑到Jetson很强的计算性能,我也本地通过Ollama部署了一个Gemma 4 e2b的版本,作为在Kimi模型达到限额后的保底方案。

接下来给媳妇做一个龙虾与微信的连接,目前插件很易用,基本不一条命令再微信扫个码就配置完成,比飞书简单多了。

接下来在微信看下效果,两个模型都能成功运行,简直完美

之后使用过程中以Kimi作为助力,当token不足时候,本地的Gemma 4补上保证一个基础服务,不至于工具完全中断,很不错很不错。给到媳妇后听说已经聊了一个晚上,并且让小龙虾分身开始打辩论赛了,真是很6。

至此一个准生产级别的OpenClaw小龙虾就搞完了,并且顺利交付了客户,有感兴趣的同学以及闲置的设备也可以参考一下。