将Pytorch模型部署到TensorRT的一个简单用法,技术路线为“pytorch model-->onnx file-->TensorRT engine”。
当前仅针对ONNX和TensorRT支持OP可进行转换,如有不支持的OP需编写插件。
trt_convertor.py
脚本,使之适用于TRT7;TensorRT7.0.0.11
Pytorch1.2
PIL6.2.1
numpy1.17.4
Linux_x86_64
CUDA10.0
CUDNN7.5.0
pytoch_to_onnx.py
脚本转ONNX,或者独自进行转换;Python main.py
,并指定必要的参数;do_inference.py
进行推理验证。ONNX file to FP16 engine:
python main.py --batch_size 32 --mode fp16 --onnx_file_path my_files/centernet.onnx --engine_file_path my_files/test_fp16.engine
推理:python do_inference.py --engine_file_path my_files/test.engine --img_path test_img.jpg --batch_size 1
Pytorch模型转ONNX:
pytoch_to_onnx.py
,需按照自己的需要定义模型与输入样例,然后转换。将ONNX转换为INT8的TensorRT引擎,需要:
myCalibrator.py
.https://github.com/GuanLianzheng/pytorch_to_TensorRT5.git
官方示例:path_to_tensorrt/TensorRT-5.1.5.0/samples/python/int8_caffe_mnist
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )