Nvidia Jetson Thor芯片上的pytorch环境部署
0.环境信息
芯片: Jetson T5000 系统: ubuntu24.04.3 LTS1.部署
1.1 docker部署
使用docker部署应该是最简单的方式了,避免因为环境依赖产生的各种奇怪的问题。
拉取nvidia官网提供的docker镜像
dockerpull nvcr.io/nvidia/pytorch:25.12-py3其他镜像可以查看nvidia官网提供的镜像列表 PyTorch | NVIDIA NGC
用拉取成功的镜像创建一个容器并运行
dockerrun --rm --runtime=nvidia -it -v"$PWD":/workspace -w /workspace nvcr.io/nvidia/pytorch:25.12-py3#如果找不到nvidia的runtime,需要下列配置sudonvidia-ctk runtime configure --runtime=docker进入容器后运行下列python代码,查看是否部署成功
importtorchimporttorch.nnasnnimporttorch.nn.functionalasFprint(f"CUDA available:{torch.cuda.is_available()}")部署成功则会输出True
root@32c2d09ab497:/workspace# python test.py CUDA available: True1.2 本地环境部署
配置jetson的环境
sudoaptupdatesudoaptinstallnvidia-jetpack#查看是否安装成功nvcc -V#启动jtop服务sudosystemctl restart jtop.service#查看硬件资源,相当于nvidia-smisudojtop配置torch的环境
在jetson-ai-lab.io上查看对应的torch版本,并下载,然后在本地安装
pipinstalltorch-2.9.1-cp312-cp312-linux_aarch64.whl可能会遇到一些依赖报错,下载对应的缺失依赖
nvpl下载
cudnss下载
安装好之后,运行下列python代码,查看是否部署成功
importtorchimporttorch.nnasnnimporttorch.nn.functionalasFprint(f"CUDA available:{torch.cuda.is_available()}")