什么网站有项目做,网站 建设 计划书,做书app下载网站有哪些内容,网络营销的重要性与意义这里写自定义目录标题 烧录系统安装Jetpack安装cuda安装Pytorch安装onnxruntime安装qv4l2 烧录系统
选择一台Linux系统#xff0c;或者VMware的电脑作为主机#xff0c;烧录系统和后面安装Jetpack都会用到。 根据供应商的指令烧录的#xff0c;暂时还没验证官方烧录#x… 这里写自定义目录标题 烧录系统安装Jetpack安装cuda安装Pytorch安装onnxruntime安装qv4l2 烧录系统
选择一台Linux系统或者VMware的电脑作为主机烧录系统和后面安装Jetpack都会用到。 根据供应商的指令烧录的暂时还没验证官方烧录后续验证补充。
安装Jetpack 在主机安装SDK Manager去Jetson Download下载千万不要下官方给的最新版本因为他们文档是以前写的下载他们这个版本登不上。 安装指令
sudo apt install ./sdkmanager_[version]-[build]_amd64.deb启动
sdkmanager登录
输入NVIDIA Developer账户 按照以下步骤安装
安装cuda
sudo apt install nvidia-jetpack -y检查cuda版本
# 不要使用nvidia-smi, 这个不准
nvcc -V如果报错nvcc命令无法识别需要将nvcc添加到环境变量
一般cuda安装在/usr/local/cuda/bin
vim ~/.bashrc# 添加到~/.bashrc里面
export LD_LIBRARY_PATH/usr/local/cuda/lib
export PATH$PATH:/usr/local/cuda/binsource ~/.bashrc安装Pytorch
cd jetson-inference/build
./install-pytorch.sh安装onnxruntime 为什么安装onnxruntime呢 为了方便加载模型运行可以先将torch模型转成onnx模型再完成模型推理。 下载onnxruntime.whl然后使用pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl
GPU运行onnxruntime
session onnxruntime.InferenceSession(onnx_model, provider[CUDAExecutionProvider])安装qv4l2
# 安装驱动
sudo apt install qv4l2# 加载驱动
cd /etc/realtimes
sudo insmod cam_gmsl.ko