Jetson 用于将各种流行的 DNN 模型和 ML 框架部署到具有高性能推理的边缘,用于实时分类、目标检测、姿势估计、语义分割和自然语言处理 (NLP) 等任务。
为了测试不同设备的性能,本文提供一种性能测试方法。
测试设备:jetson nano
git clone https://github.com/NVIDIA-AI-IOT/jetson_benchmarks.git
cd jetson_benchmarks
mkdir models
sudo sh install_requirements.sh
使用脚本下载模型
python3 utils/download_models.py --all --csv_file_path ./benchmark_csv/nx-benchmarks.csv --save_dir ./models
下载的时候需要科学上网,在 ./benchmark_csv/nx-benchmarks.csv 路径下有各个模型对应的下载路径,可以手动下载。
如果你上不了网,可以下载我上传好的模型
sudo python3 benchmark.py --all --csv_file_path <path-to>/benchmark_csv/tx2-nano-benchmarks.csv --model_dir <absolute-path-to-downloaded-models> --jetso