ONNX MLIR方法

MLIR中的开放式神经网络交换实现。

Prerequisites

gcc >= 6.4

libprotoc >= 3.11.0

cmake >= 3.15.4

在UNIX上安装MLIR

首先,安装MLIR(作为LLVM-Project的一部分):

git clone https://github.com/llvm/llvm-project.git

# Check out a specific branch that is known to work with ONNX MLIR.

cd llvm-project && git checkout 496fb70b141ccbfaba9761294f3b4b97717096a3 && cd ..

mkdir llvm-project/build

cd llvm-project/build

cmake -G Ninja ../llvm \

-DLLVM_ENABLE_PROJECTS=mlir \

-DLLVM_BUILD_EXAMPLES=ON \

-DLLVM_TARGETS_TO_BUILD="host" \

-DCMAKE_BUILD_TYPE=Release \

-DLLVM_ENABLE_ASSERTIONS=ON \

-DLLVM_ENABLE_RTTI=ON

cmake --build . --target -- ${MAKEFLAGS}

cmake --build . --target check-mlir

ONNX-MLIR (this project)

需要设置两个环境变量:

  • LLVM_PROJ_SRC指向llvm-project src目录(例如llvm-project /)。
  • LLVM_PROJ_BUILD指向llvm-project构建目录(例如,llvm-project / build)。

要构建ONNX-MLIR,使用以下命令:

same-as-file: <> ({“ref”: “utils/install-onnx-mlir.sh”, “skip-doc”: 2})

git clone --recursive https://github.com/onnx/onnx-mlir.git

# Export environment variables pointing to LLVM-Projects.

export LLVM_PROJ_SRC=$(pwd)/llvm-project/

export LLVM_PROJ_BUILD=$(pwd)/llvm-project/build

mkdir onnx-mlir/build && cd onnx-mlir/build

cmake ..

cmake --build .

# Run FileCheck tests:

export LIT_OPTS=-v

cmake --build . --target check-onnx-lit

上述命令成功onnx-mlir执行后,可执行文件应出现在bin目录中。

在Windows上安装

在Windows上构建onnx-mlir,需要构建一些默认情况下不可用的其它预先条件。

文件中的说明假定正在使用Visual Studio 2019社区版。建议安装具有C ++桌面开发具有C ++工作负载的Linux开发。这样可以确保拥有编译此工程,及其在Windows上的依赖项所需的所有工具链和库。

“ VS 2019开发人员命令提示符”开始的外壳程序中运行所有命令。

Protobuf

将protobuf构建为静态库。

set root_dir=%cd%

git clone --recurse-submodules https://github.com/protocolbuffers/protobuf.git

cd protobuf

cd cmake

cmake -G "Visual Studio 16 2019" -A x64 -T host=x64 -DCMAKE_BUILD_TYPE=Release -Dprotobuf_MSVC_STATIC_RUNTIME=OFF -Dprotobuf_BUILD_TESTS=OFF -Dprotobuf_BUILD_EXAMPLES=OFF -Dprotobuf_WITH_ZLIB=OFF -DCMAKE_INSTALL_PREFIX="%root_dir%\protobuf\install"

call msbuild protobuf.sln /m /p:Configuration=Release

call msbuild INSTALL.vcxproj /p:Configuration=Release

在为onnx-mlir运行CMake之前,确保此protobuf的bin目录在PATH中的其它任何目录之前:

set PATH=%root_dir%\protobuf\install\bin;%PATH%

PDCurses

Build a local version of the curses library, used by various commandline tools in onnx-mlir. These instructions assume you use Public Domain Curses.

Run this from a Visual Studio developer command prompt since you will need access to the appropriate version of Visual Studio’s nmake tool.

构建curses库的本地版本,供onnx-mlir中的各种命令行工具使用。这些说明假定使用Public Domain Curses

从Visual Studio开发命令提示符运行此命令,需要访问相应版本的Visual Studio的nmake工具。

set root_dir=%cd%

git clone https://github.com/wmcbrine/PDCurses.git

set PDCURSES_SRCDIR=%root_dir%/PDCurses

cd PDCurses

call nmake -f wincon/Makefile.vc

MLIR

安装MLIR(作为LLVM-Project的一部分):

git clone https://github.com/llvm/llvm-project.git

# Check out a specific branch that is known to work with ONNX MLIR.

cd llvm-project && git checkout 496fb70b141ccbfaba9761294f3b4b97717096a3 && cd ..

set root_dir=%cd%

md llvm-project\build

cd llvm-project\build

call cmake -G "Visual Studio 16 2019" -A x64 -T host=x64 ..\llvm ^

-DCMAKE_INSTALL_PREFIX="%root_dir%\llvm-project\build\install" ^

-DLLVM_ENABLE_PROJECTS=mlir ^

-DLLVM_BUILD_EXAMPLES=ON ^

-DLLVM_TARGETS_TO_BUILD="host" ^

-DCMAKE_BUILD_TYPE=Release ^

-DLLVM_ENABLE_ASSERTIONS=ON ^

-DLLVM_ENABLE_RTTI=ON ^

-DLLVM_ENABLE_ZLIB=OFF

call cmake --build . --config Release --target -- /m

call cmake --build . --config Release --target install

call cmake --build . --config Release --target check-mlir

ONNX-MLIR (this project)

在构建onnx-mlir之前,需要设置以下环境变量:

  • CURSES_LIB_PATH:curses库的路径(例如c:/ repos / PDCurses)
  • LLVM_PROJ_BUILD:LLVM构建目录的路径(例如c:/ repos / llvm-project / build)
  • LLVM_PROJ_SRC:LLVM源目录的路径(例如c:/ repos / llvm-project)

该项目使用带lit(LLVM的Integrated Tester)进行单元测试。运行CMake时,使用LLVM_EXTERNAL_LIT定义从LLVM指定lit工具的路径。

要构建ONNX MLIR,使用以下命令:

same-as-file: <> ({“ref”: “utils/install-onnx-mlir.cmd”, “skip-doc”: 2})

git clone --recursive https://github.com/onnx/onnx-mlir.git

REM Export environment variables pointing to LLVM-Projects.

set root_dir=%cd%

set CURSES_LIB_PATH=%root_dir%/PDCurses

set LLVM_PROJ_BUILD=%root_dir%/llvm-project/build

set LLVM_PROJ_SRC=%root_dir%/llvm-project

md onnx-mlir\build

cd onnx-mlir\build

call cmake -G "Visual Studio 16 2019" -A x64 -T host=x64 -DLLVM_EXTERNAL_LIT="%root_dir%\llvm-project\build\Release\bin\llvm-lit.py" -DCMAKE_BUILD_TYPE=Release ..

call cmake --build . --config Release --target onnx-mlir -- /m

REM Run FileCheck tests

set LIT_OPTS=-v

call cmake --build . --config Release --target check-onnx-lit

上述命令成功onnx-mlir执行后,可执行文件应出现在bin目录中。

使用ONNX-MLIR

onnx-mlir用法如下:

OVERVIEW: ONNX MLIR modular optimizer driver

USAGE: onnx-mlir [options] <input file>

OPTIONS:

Generic Options:

--help        - Display available options (--help-hidden for more)

--help-list   - Display list of available options (--help-list-hidden for more)

--version     - Display the version of this program

ONNX MLIR Options:

These are frontend options.

Choose target to emit:

--EmitONNXIR - Ingest ONNX and emit corresponding ONNX dialect.

--EmitMLIR   - Lower model to MLIR built-in transformation dialect.

--EmitLLVMIR - Lower model to LLVM IR (LLVM dialect).

--EmitLLVMBC - Lower model to LLVM IR and emit (to file) LLVM bitcode for model.

Example

例如,要将ONNX模型(例如add.onnx)降低为ONNX方言,使用以下命令:

./onnx-mlir --EmitONNXIR add.onnx

输出应如下所示:

module {

func @main_graph(%arg0: tensor<10x10x10xf32>, %arg1: tensor<10x10x10xf32>) -> tensor<10x10x10xf32> {

%0 = "onnx.Add"(%arg0, %arg1) : (tensor<10x10x10xf32>, tensor<10x10x10xf32>) -> tensor<10x10x10xf32>

return %0 : tensor<10x10x10xf32>

}

}

ONNX MLIR方法的更多相关文章

  1. ResNet网络的训练和预测

    ResNet网络的训练和预测 简介 Introduction 图像分类与CNN 图像分类 是指将图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法,是计算机视觉中其他任务,比如目标检测 ...

  2. javaSE27天复习总结

    JAVA学习总结    2 第一天    2 1:计算机概述(了解)    2 (1)计算机    2 (2)计算机硬件    2 (3)计算机软件    2 (4)软件开发(理解)    2 (5) ...

  3. ONNX 实时graph优化方法

    ONNX 实时graph优化方法 ONNX实时提供了各种图形优化来提高模型性能.图优化本质上是图级别的转换,从小型图简化和节点消除,到更复杂的节点融合和布局优化. 图形优化根据其复杂性和功能分为几个类 ...

  4. UWP通过机器学习加载ONNX进行表情识别

    首先我们先来说说这个ONNX ONNX是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型.它使得不同的人工智能框架(如Pytorch, MXNet)可以采用相同格式存储模型数据并交互. ...

  5. MLIR中间表示和编译器框架

    MLIR中间表示和编译器框架 TensorFlow生态系统包含许多在软件和硬件堆栈的多个级别上运行的编译器和优化器.作为TensorFlow的日常用户,使用不同类型的硬件(GPU,TPU,移动设备)时 ...

  6. 使用Relay部署编译ONNX模型

    使用Relay部署编译ONNX模型 本文介绍如何使用Relay部署ONNX模型的入门. 首先,必须安装ONNX软件包. 一个快速的解决方案是安装protobuf编译器,然后 pip install o ...

  7. 使用ONNX将模型转移至Caffe2和移动端

    使用ONNX将模型转移至Caffe2和移动端 本文介绍如何使用 ONNX 将 PyTorch 中定义的模型转换为 ONNX 格式,然后将其加载到 Caffe2 中.一旦进入 Caffe2, 就可以运行 ...

  8. MLIR算子量化Quantization

    MLIR算子量化Quantization 本文概述了MLIR量化系统的设计.虽然术语"量化"是高度过载的,用于将浮点计算转换为以整数数学表示,适配的变量进行推理的技术的相当窄的范围 ...

  9. 多级中间表示概述MLIR

    多级中间表示概述MLIR MLIR项目是一种构建可重用和可扩展的编译器基础结构的新颖方法.MLIR旨在解决软件碎片,改善异构硬件的编译,显着降低构建特定于域的编译器的成本以及帮助将现有编译器连接在一起 ...

随机推荐

  1. Android平台的so注入--LibInject

    本文博客地址:http://blog.csdn.net/qq1084283172/article/details/53890315 大牛古河在看雪论坛分享的Android平台的注入代码,相信很多搞An ...

  2. Flask 实现分页

    pager.html <!DOCTYPE html> <html lang="en"> <head> <meta charset=&quo ...

  3. Android adb不是内部或外部命令 问题解决

    就是没有配置环境变量, 这个只需要将android安装:例如C:\Program File\android-sdk-windows\tools加入到系统变量Path中,需要注意的是Path中会配置的有 ...

  4. [LeetCode每日一题]781. 森林中的兔子

    [LeetCode每日一题]781. 森林中的兔子 问题 森林中,每个兔子都有颜色.其中一些兔子(可能是全部)告诉你还有多少其他的兔子和自己有相同的颜色.我们将这些回答放在 answers 数组里. ...

  5. 码农飞升记-02-OracleJDK是什么?OracleJDK的版本怎么选择?

    目录 1.Oracle JDK 是什么? 2.Oracle JDK 版本如何选择? 1.Java SE 发布节奏以及不同版本的差距 1.Java SE 8 以及之前版本的发布节奏和不同版本的差距 1. ...

  6. [C#] 使用 NAudio 实现音频可视化

    预览: 捕捉声卡输出: 实现音频可视化, 第一步就是获得音频采样, 这里我们选择使用计算机正在播放的音频作为采样源进行处理: NAudio 中, 可以借助 WasapiLoopbackCapture ...

  7. 006-Java的访问权限控制符和包导入机制

    目录 一.Java的访问权限控制符 一.访问控制符的作用 二.访问控制符的分类 二.Java的包导入机制 一.为什么要使用package? 二.package怎么用? 三.对于带有package的ja ...

  8. 阿里面试官用HashMap把我问倒了

    本人是一名大三学生,最近在找暑期实习,其中也面试过两次阿里,一次菜鸟网络部门.一次网商银行部门,当然我都失败了,同时也让我印象很深刻,因此记录了其中一些面试心得,我觉得这个问题很值得分享,因此分享给大 ...

  9. 一行代码解决JS数字大于2^53精度错误的问题

    服务端使用长整型(Int64)的数字,在浏览器端使用JS的number类型接收时,当这个实际值超过 (2^53-1)时,JS变量的值和实际值就会出现不相等的问题.常见场景比如使用雪花算法生成Id. 在 ...

  10. TypeScript 中限制对象键名的取值范围

    当我们使用 TypeScript 时,我们想利用它提供的类型系统限制代码的方方面面,对象的键值,也不例外. 譬如我们有个对象存储每个年级的人名,类型大概长这样: type Students = Rec ...