当前位置:网站首页>【环境搭建】onnx-tensorrt
【环境搭建】onnx-tensorrt
2022-08-09 09:03:00 【.云哲.】
1,介绍
onnx-tensorrt是一个模型推理框架。
2,安装
2.1 cuda,cudnn
2.2 cmake
2.3 protobuf,版本>=3.8.x
sudo apt-get install autoconf automake libtool curl make g++ unzip
sudo apt-get autoremove libprotobuf-dev protobuf-compiler # 卸载
git clone https://github.com/google/protobuf.git
cd protobuf
git submodule sync
git submodule update --init --recursive
./autogen.sh
./configure
make -j 8
make check
sudo make install
sudo ldconfig # refresh shared library cache.
protoc --version
export PATH=$PATH:/usr/local/protobuf/bin/
export PKG_CONFIG_PATH=/usr/local/protobuf/lib/pkgconfig/
2.4 tensorrt,tensorrt/lib -> /usr/lib, 版本:7.1.3.4
2.5 onnx-tensorrt
sudo apt-get install libprotobuf-dev protobuf-compiler
sudo apt-get install swig
git clone --branch 7.1 https://github.com/onnx/onnx-tensorrt.git
cd onnx-tensorrt
git submodule sync
git submodule update --init --recursive
mkdir build && cd build
cmake .. -DTENSORRT_ROOT=$TENSORRT_ROOT
make -j 8
sudo make install
注意:
1,vim setup.py -> 添加 INC_DIRS = ["$HOME/TensorRT/include"]
2,NvOnnxParser.h -> 添加 #define TENSORRTAPI
3,应用
python setup.py build # 虚拟环境
python setup.py install
python
>>> import onnx
>>> import onnx_tensorrt.backend as backend
>>> import numpy as np
>>> model = onnx.load("model.onnx")
>>> engine = backend.prepare(model, device='CUDA:0')
>>> input_data = np.random.random(size=(32, 3, 224, 224)).astype(np.float32)
>>> output_data = engine.run(input_data)[0]
>>> print(output_data)
>>> print(output_data.shape)
边栏推荐
猜你喜欢
随机推荐
基于蓝牙定位功能开发的医院智能导航系统
ASP.net中的数据库应用
gin中改进版curd接口例子
vim 按了Ctrl+S后 卡死
VNCTF2021 部分题目复现
Anaconda4.8.3介绍、安装及使用教程安装(win10)并修改Jupyter默认工作目录
【场景化解决方案】构建医疗通讯录,“慧医钉”助力医院实现数字化管理
leetcode 32. 最长有效括号 (困难)
【场景化解决方案】构建设备通讯录,制造业设备上钉实现设备高效管理
【GNN终身学习】2022 CVPR 终身图学习
电子产品整机结构设计的一般性思路
没有对象的可以进来看看, 这里有对象介绍
DeFi 项目中的治理Token
QT程序生成独立exe程序(避坑版)
go Antlr重构脚本解释器如何实现
大端小端存储区别一看即懂
Venture DAO 行业研报:宏观和经典案例分析、模式总结、未来建议
Makefile中patsubst、wildcard、notdir的使用
QT设置exe可执行文件的图标
gin中模型中增删改查+搜索分页