当前位置: 首页 > 工具软件 > Benchmark > 使用案例 >

NVIDIA Jetson之benchmark测试

薄伟彦
2023-12-01

0 背景

Jetson 用于将各种流行的 DNN 模型和 ML 框架部署到具有高性能推理的边缘,用于实时分类、目标检测、姿势估计、语义分割和自然语言处理 (NLP) 等任务。

为了测试不同设备的性能,本文提供一种性能测试方法。

测试设备:jetson nano

1 环境安装

git clone https://github.com/NVIDIA-AI-IOT/jetson_benchmarks.git
cd jetson_benchmarks
mkdir models
sudo sh install_requirements.sh

2 下载模型

使用脚本下载模型

python3 utils/download_models.py --all --csv_file_path ./benchmark_csv/nx-benchmarks.csv --save_dir ./models

下载的时候需要科学上网,在 ./benchmark_csv/nx-benchmarks.csv 路径下有各个模型对应的下载路径,可以手动下载。

如果你上不了网,可以下载我上传好的模型

3 测试模型

sudo python3 benchmark.py --all --csv_file_path <path-to>/benchmark_csv/tx2-nano-benchmarks.csv  --model_dir <absolute-path-to-downloaded-models>   --jetso

 类似资料: