<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>TensorRT on My Blog</title><link>/tags/tensorrt/</link><description>Recent content in TensorRT on My Blog</description><generator>Hugo</generator><language>en-us</language><lastBuildDate>Sun, 15 Jul 2018 00:00:00 +0000</lastBuildDate><atom:link href="/tags/tensorrt/index.xml" rel="self" type="application/rss+xml"/><item><title>tensorRT安装</title><link>/2018/07/15/tensorrt%E5%AE%89%E8%A3%85/</link><pubDate>Sun, 15 Jul 2018 00:00:00 +0000</pubDate><guid>/2018/07/15/tensorrt%E5%AE%89%E8%A3%85/</guid><description>&lt;!-- toc --&gt;
&lt;p&gt;[TOC]&lt;/p&gt;
&lt;h2 id="tensorrt简介"&gt;tensorRT简介&lt;/h2&gt;
&lt;p&gt;深度学习的发展带动了一批深度学习框架，caffe、tensorflow、pytorch等，对于计算量庞大的CNN，效率一直是大家所关注的，接触过深度网络压缩的同学应该知道网络压缩最关键的两个思路，剪枝和量化。
TensorRT就是量化，将FP32位权值数据优化为 FP16 或者 INT8，而推理精度不发生明显的降低。
关于TensorRT首先要清楚以下几点：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;TensorRT是NVIDIA开发的深度学习推理工具，只支持推理，不支持训练；
目前TensorRT4已经支持Caffe、Caffe2、TensorFlow、MxNet、Pytorch等主流深度学习库；&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;TensorRT底层针对NVIDIA显卡做了多方面的优化，不仅仅是量化，可以和 CUDA CODEC SDK 结合使用，也就是另一个开发包DeepStream；&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;TensorRT独立于深度学习框架，通过解析框架文件来实现，不需要额外安装DL库；&lt;/p&gt;
&lt;p&gt;参考示意图：&lt;/p&gt;
&lt;p&gt;&lt;img alt="tensorrt_01" loading="lazy" src="/2018/07/15/tensorrt%E5%AE%89%E8%A3%85/tensorrt_01.png"&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id="tensorrt安装"&gt;tensorRT安装&lt;/h2&gt;
&lt;p&gt;1、安装tensorRT之前准备&lt;/p&gt;</description></item></channel></rss>