gpu command
GPU 命令
1 | nvidia-smi --format=csv,noheader,nounits --query-gpu=timestamp,index,memory.total,memory.used,memory.free,utilization.gpu,utilization.memory -lms 500 |
1 | nsys profile -t cuda,nvtx,cublas,cublas-verbose,cusparse,cusparse-verbose,cudnn --stats=true --cuda-memory-usage true --force-overwrite true --gpu-metrics-device=1 --gpu-metrics-frequency=10 -o pp-yolo-int8 python benchmark.py --model_dir=quant_int8/models_re/yolov5s_quant --config_file config.yaml --backend_type=paddle --batch_size=1 --enable_gpu=true --gpu_id=1 --enable_trt=true --paddle_model_file "model.pdmodel" --paddle_params_file "model.pdiparams" --precision=int8 |
nvidia-smi使用
nvidia-smi详细使用说明
https://docs.markhh.com/pages/dev/nvidia-smi/1 | -pm, --persistence-mode= 设置持久性模式: 0/DISABLED, 1/ENABLED |
设置GPU计算模式
nvidia-smi -i gpu_id -c mode
0/Default:表示每个设备允许多个上下文。
1/Exclusive_Thread:已弃用,改用 Exclusive_Process
2/Prohibited:表示每台设备不允许使用任何上下文(无计算应用程序)。
3/Exclusive_Process: 表示每个设备只允许一个上下文,一次可从多个线程使用。
GPU 状态重置
nvidia-smi -r
一般用于GPU重启后
常见GPU使用命令
GPU重置
查询限制功耗
nvidia-smi –query-gpu=power.limit –format=csv,noheader,nounits
sudo nvidia-smi -pl {power_limit}
锁频及持久化模式
sudo nvidia-smi -pm 1
nvidia-smi -q -d CLOCK
sudo nvidia-smi -lgc 2100,2100
查看哪些进程在使用GPU
fuser -v /dev/nvidia*
lsof /dev/nvidia*