NVIDIA TensorRT 让您的人工智能更快!

英伟达TensorRT™是一种高性能深度学习推理优化器和运行时提供低延迟和高通量的深度学习推理的应用程序。使用TensorRT,您可以优化神经网络模型,精确地校准低精度,并最终将模型部署到超大规模的数据中心、嵌入式或汽车产品平台。在对所有主要框架进行培训的模型的推理过程中,基于TensorRT的gpu应用程序的执行速度比CPU快100倍。

TensorRT提供INT8和FP16的优化,用于深度学习推理应用程序的生产部署,如视频流、语音识别、推送和自然语言处理。减少推断精度可以大大降低了应用程序的延迟,这是许多实时服务以及自动和嵌入式应用程序的需求。

您可以从每一个深度学习框架中导入经过训练的模型到TensorRT。在应用优化后,TensorRT选择了平台特定的内核,并在数据中心、Jetson嵌入式平台和NVIDIA驱动自动驾驶平台上实现Tesla GPU的性能最大化。

使用TensorRT开发人员可以专注于创建新的基于ai的应用程序,而不是用于推理部署的性能调优。

TensorRT下载地址:https://www.boshenyl.cn.nvidia.com/nvidia-tensorrt-download 
TesnsoRT的介绍文档:https://www.365soke.cn .nvidia.com/tensorrt-3-faster-tensorflow-inference/ 
TensorRT的开发者指南:http://www.wanmeiyuele.cn /deeplearning/sdk/tensorrt-developer-guide/index.html 
TensorRT的样例代码:http://www.taohuayuan178.com/  /deeplearning/sdk/tensorrt-developer-guide/index.html#samples

TensorRT的优化: 

• 权重和激活精度校准 
将模型量化到INT8,同时保持准确性,从而最大化吞吐量 
• 层和张量的融合 
通过在内核中融合节点来优化GPU内存和带宽的使用 
• 内核自动调整 
基于目标GPU平台选择最佳数据层和算法 
• 动态张量内存 
最大限度地减少内存占用并有效地重新使用内存来提高张量使用效率 
• Multi-Stream执行 
可扩展的设计可并行处理多个输入流

框架集成: 

NVIDIA与深度学习框架的开发人员紧密合作,通过TensorRT实现对AI平台的优化性能。如果您的训练模型是ONNX格式或其他流行的框架,如TensorFlow和MATLAB,那么您可以通过简单的方法将模型导入到TensorRT中进行推理。下面是关于如何开始的信息的集成。

TensorRT和TensorFlow是紧密集成的,因此您可以通过TensorRT强大的优化获得TensorFlow的灵活性。您可以在这里了解更多的TensorRT与TensorFlow博客文章。 

TensorRT 4提供了一个ONNX解析器,因此您可以轻松地从诸如Caffe 2、Chainer、Microsoft Cognitive Toolkit、MxNet和PyTorch等框架中导入ONNX模型到TensorRT。您可以在这里了解更多关于tensort4的可用性。 

MATLAB与TensorRT通过GPU编码器集成,使工程师和科学家使用MATLAB可以自动为Jetson、DRIVE和Tesla平台生成高性能的推理机。在这里了解更多。

如果您正在使用专有或自定义框架进行深度学习培训,请使用TensorRT c++ API来导入和加速您的模型。在TensorRT文档中可以阅读更多内容。

TensorRT 4 :What’s New

TensoRT 4现在提供了加速语音识别、神经机器翻译和推荐系统的功能。TensorRT 4中的本地ONNX解析器提供了一种简单的方法,可以从诸如PyTorch、Caffe、MxNet、CNTK和Chainer等框架导入模型: 

• 与多层感知器(MLP)和递归神经网络(RNN)的新层相比,CPU的吞吐量提高了45倍 
• V100上的推理性能提高50倍。而在TensorRT中使用ONNX解析器导入的ONNX模型可以支持CPU了 
• 支持NVIDIA DRIVE™Xavier - 用于自动驾驶汽车的AI计算机 
• 利用运行在Volta Tensor Cores上的API,FPX自定义图层可以3倍加速推理

NVIDIA开发者计划的成员可以很快从这里下载TensorRT 4 Release Candidate。

NVIDIA TensorRT 让您的人工智能更快!的更多相关文章

  1. TensorRT 3:更快的TensorFlow推理和Volta支持

    TensorRT 3:更快的TensorFlow推理和Volta支持 TensorRT 3: Faster TensorFlow Inference and Volta Support 英伟达Tens ...

  2. Nvidia发布更快、功耗更低的新一代图形加速卡

    导读 不出意外的,Nvidia在其举行的Supercomputing 19大会上公布了很多新闻,这些我们将稍后提到.但被忽略的一条或许是其中最有趣的:一张更快.功耗更低的新一代图形加速卡. 多名与会者 ...

  3. NVIDIA TensorRT:可编程推理加速器

    NVIDIA TensorRT:可编程推理加速器 一.概述 NVIDIA TensorRT是一个用于高性能深度学习推理的SDK.它包括一个深度学习推理优化器和运行时间,为深度学习推理应用程序提供低延迟 ...

  4. NVIDIA® TensorRT™ supports different data formats

    NVIDIA TensorRT supports different data formats NVIDIATensorRT公司 支持不同的数据格式.需要考虑两个方面:数据类型和布局.         ...

  5. NVIDIA TensorRT高性能深度学习推理

    NVIDIA TensorRT高性能深度学习推理 NVIDIA TensorRT 是用于高性能深度学习推理的 SDK.此 SDK 包含深度学习推理优化器和运行时环境,可为深度学习推理应用提供低延迟和高 ...

  6. 精通Web Analytics 2.0 (9) 第七章:失败更快:爆发测试与实验的能量

    精通Web Analytics 2.0 : 用户中心科学与在线统计艺术 第七章:失败更快:爆发测试与实验的能量 欢迎来到实验和测试这个棒极了的世界! 如果Web拥有一个超越所有其他渠道的巨大优势,它就 ...

  7. 利用更快的r-cnn深度学习进行目标检测

    此示例演示如何使用名为“更快r-cnn(具有卷积神经网络的区域)”的深度学习技术来训练对象探测器. 概述 此示例演示如何训练用于检测车辆的更快r-cnn对象探测器.更快的r-nnn [1]是r-cnn ...

  8. [译] 优化 WEBPACK 以更快地构建 REACT

    原文地址:OPTIMIZING WEBPACK FOR FASTER REACT BUILDS 原文作者:Jonathan Rowny 译文出自:掘金翻译计划 本文永久链接:https://githu ...

  9. 利用共享内存实现比NCCL更快的集合通信

    作者:曹彬 | 旷视 MegEngine 架构师 简介 从 2080Ti 这一代显卡开始,所有的民用游戏卡都取消了 P2P copy,导致训练速度显著的变慢.针对这种情况下的单机多卡训练,MegEng ...

随机推荐

  1. restTemplate访问接口

    后端技术精选 每天推送精选技术好文,涉及Java.python.Linux及MySQL,欢迎关注微信公众号:后端技术精选 随笔 - 52, 文章 - 0, 评论 - 50, 引用 - 0 Spring ...

  2. CakePHP 总结

    1. 处理任何保存或获取数据的操作最好都写在模型(Model)中.这个概念通常被称为fat model. 2. 返回上一条插入记录的ID, $this->Example->getInser ...

  3. CentOS 7.2 安装zabbix 3.4

    一.zabbix版本选择及部署环境说明 1.zabbix版本选择 zabbix官网地址:www.zabbix.com zabbix每半年发布一个长期支持版,目前长期支持版有2.0.3.0等,所以选择z ...

  4. TPO-14 C1 Locate a political book

    TPO-14 C1 Locate a political book 第 1 段 1.Listen to a conversation between the student and librarian ...

  5. Unity编辑器 - 鼠标悬停在控件上时改变鼠标样式

    Unity编辑器 - 鼠标悬停在控件上时改变鼠标样式 摘自Unity文档 EditorGUIUtility.AddCursorRect public static void AddCursorRect ...

  6. Python|一文简单看懂 深度&广度 优先算法

    一.前言 以后尽量每天更新一篇,也是自己的一个学习打卡!加油!今天给大家分享的是,Python里深度/广度优先算法介绍及实现. 二.深度.广度优先算法简介 1. 深度优先搜索(DepthFirstSe ...

  7. 【WXS全局对象】consloe

    consloe对象 方法: 原型:console.log( [String] ) 说明:用于在 console 窗口输出信息,一般用于程序调试使用示例: console.log支持arguments类 ...

  8. HDU 1394Minimum Inversion Number

    The inversion number of a given number sequence a1, a2, ..., an is the number of pairs (ai, aj) that ...

  9. UVa 1583 - Digit Generator 解题报告 - C语言

    1.题目大意 如果a加上a的各个数字之和得到b,则说a是b的生成元.给出n其中$1\le n\le 100000$,求其最小生成元,若没有解则输出0. 2.思路 使用打表的方法打出各个数字a对应的b, ...

  10. opencv打开视频文件出错

    使用C#调用mingw的so文件,在C++端使用opencv打开视频.这样的项目完成过了一个,第二次做的时候,发现opencv打开视频文件出错. 首先怀疑是opencv的opencv_ffmpeg24 ...