MindSpore模型推理
MindSpore模型推理
如果想在应用中使用自定义的MindSpore Lite模型,需要告知推理器模型所在的位置。推理器加载模型的方式有以下三种:
- 加载本地模型。
- 加载远程模型。
- 混合加载本地和远程模型。
加载模型
方式一:加载并初始化本地模型。
- 加载模型。
- Assets目录
- MLCustomLocalModel localModel = new MLCustomLocalModel.Factory("yourmodelname")
- .setAssetPathFile("assetpathname")
- .create();
- 自定义目录
. MLCustomLocalModel localModel = new MLCustomLocalModel.Factory("yourmodelname")
- .setLocalFullPathFile("sdfullpathname")
- .create();
- 根据模型创建推理器。
- final MLModelExecutorSettings settings = new MLModelExecutorSettings.Factory(localModel).create();
- final MLModelExecutor modelExecutor = MLModelExecutor.getInstance(settings);
- // 调用模型推理,实现细节见下节模型推理;Bitmap待处理的图片。
- executorImpl(modelExecutor, bitmap);
方式二:加载并初始化远程模型。
加载远程模型时需先判断远程模型是否已经下载完成:
- final MLCustomRemoteModel remoteModel =new MLCustomRemoteModel.Factory("yourmodelname")
- .create();
- MLLocalModelManager.getInstance()
- .isModelExist(remoteModel)
- .addOnSuccessListener(new OnSuccessListener<Boolean>() {
- @Override
- public void onSuccess(Boolean isDownload) {
- if (isDownload) {
- final MLModelExecutorSettings settings =
- 10. new MLModelExecutorSettings.Factory(remoteModel).create();
- 11. final MLModelExecutor modelExecutor = MLModelExecutor.getInstance(settings);
- 12. executorImpl(modelExecutor, bitmap);
- 13. }
- 14. }
- 15. })
- 16. .addOnFailureListener(new OnFailureListener() {
- 17. @Override
- 18. public void onFailure(Exception e) {
- 19. // 异常处理。
- 20. }
- 21. });
方式三:混合加载本地和远程模型。推荐使用这种方式,此方法可以确保当远程模型未下载时加载本地模型。
- localModel = new MLCustomLocalModel.Factory("localModelName")
- .setAssetPathFile("assetpathname")
- .create();
- remoteModel =new MLCustomRemoteModel.Factory("yourremotemodelname").create();
- MLLocalModelManager.getInstance()
- // 判断远程模型是否存在。
- .isModelExist(remoteModel)
- .addOnSuccessListener(new OnSuccessListener<Boolean>() {
- @Override
- 10. public void onSuccess(Boolean isDownloaded) {
- 11. MLModelExecutorSettings settings;
- 12. // 如果远程模型存在,优先加载本地已有的远程模型,否则加载本地已有的本地模型。
- 13. if (isDownloaded) {
- 14. settings = new MLModelExecutorSettings.Factory(remoteModel).create();
- 15. } else {
- 16. settings = new MLModelExecutorSettings.Factory(localModel).create();
- 17. }
- 18. final MLModelExecutor modelExecutor = MLModelExecutor.getInstance(settings);
- 19. executorImpl(modelExecutor, bitmap);
- 20. }
- 21. })
- 22. .addOnFailureListener(new OnFailureListener() {
- 23. @Override
- 24. public void onFailure(Exception e) {
- 25. // 异常处理。
- 26. }
- 27. });
模型推理器进行推理
本章示例中的“executorImpl”方法为模型推理的详细流程,声明如下:
- void executorImpl(final MLModelExecutor modelExecutor, Bitmap bitmap)
以下示例会借助“executorImpl”方法详细演示推理器调用的自定义模型推理的整个过程,此方法内主要包含如下关键处理流程:
- 设置输入输出格式。
需要知道模型的输入输出格式。通过MLModelInputOutputSettings.Factory把输入输出格式设置到模型推理器。比如,一个图片分类模型的输入格式为一个float类型的1x224x224x3数组(表示只推理一张大小为224x224的三通道 (RGB)图片),输出格式为一个长度为1001的float型列表(每个值表示该图片经模型推理后1001个类别中各类别的可能性)。对于此模型,请按照以下方式设置输入输出格式:
- inOutSettings = new MLModelInputOutputSettings.Factory()
- .setInputFormat(0, MLModelDataType.FLOAT32, new int[] {1, 224, 224, 3})
- .setOutputFormat(0, MLModelDataType.FLOAT32, new int[] {1, 1001})
- .create();
- 把图片数据输入到推理器。
注意
当前版本MindSpore生成的模型使用的数据格式与tflite类型的模型使用的数据格式相同,均为NHWC,caffe类型的模型使用的数据格式为NCHW。若需要将模型由caffe转换到MindSpore,请设置为NHWC格式。如下NHWC示例:1*224*224*3表示一张(batch N),大小为224(height H)*224(width W),3通道(channels C)的图片。
- private void executorImpl(final MLModelExecutor modelExecutor, Bitmap bitmap){
- // 准备输入数据。
- final Bitmap inputBitmap = Bitmap.createScaledBitmap(srcBitmap, 224, 224, true);
- final float[][][][] input = new float[1][224][224][3];
- for (int i = 0; i < 224; i++) {
- for (int j = 0; j < 224; j++) {
- int pixel = inputBitmap.getPixel(i, j);
- input[batchNum][j][i][0] = (Color.red(pixel) - 127) / 128.0f;
- input[batchNum][j][i][1] = (Color.green(pixel) - 127) / 128.0f;
- 10. input[batchNum][j][i][2] = (Color.blue(pixel) - 127) / 128.0f;
- 11. }
- 12. }
- 13. MLModelInputs inputs = null;
- 14. try {
- 15. inputs = new MLModelInputs.Factory().add(input).create();
- 16. // 若模型需要多路输入,需要多次调用add()以便图片数据能够一次输入到推理器。
- 17. } catch (MLException e) {
- 18. // 处理输入数据格式化异常。
- 19. }
- 20.
21. // 执行推理。可以通过“addOnSuccessListener”来监听推理成功,在“onSuccess”回调中处理推理成功。同时,可以通过“addOnFailureListener”来监听推理失败,在“onFailure”中处理推理失败。
- 22. modelExecutor.exec(inputs, inOutSettings).addOnSuccessListener(new OnSuccessListener<MLModelOutputs>() {
- 23. @Override
- 24. public void onSuccess(MLModelOutputs mlModelOutputs) {
- 25. float[][] output = mlModelOutputs.getOutput(0);
- 26. // 这里推理的返回结果在output数组里,可以进一步处理。
- 27. }
- 28. }).addOnFailureListener(new OnFailureListener() {
- 29. @Override
- 30. public void onFailure(Exception e) {
- 31. // 推理异常。
- 32. }
- 33. });
34. }
MindSpore模型推理的更多相关文章
- MindSpore模型精度调优实战:如何更快定位精度问题
摘要:为大家梳理了针对常见精度问题的调试调优指南,将以"MindSpore模型精度调优实战"系列文章的形式分享出来,帮助大家轻松定位精度问题,快速优化模型精度. 本文分享自华为云社 ...
- MindSpore模型精度调优实战:常用的定位精度调试调优思路
摘要:在模型的开发过程中,精度达不到预期常常让人头疼.为了帮助用户解决模型调试调优的问题,我们为MindSpore量身定做了可视化调试调优组件:MindInsight. 本文分享自华为云社区<技 ...
- 天猫精灵业务如何使用机器学习PAI进行模型推理优化
引言 天猫精灵(TmallGenie)是阿里巴巴人工智能实验室(Alibaba A.I.Labs)于2017年7月5日发布的AI智能语音终端设备.天猫精灵目前是全球销量第三.中国销量第一的智能音箱品牌 ...
- 【翻译】借助 NeoCPU 在 CPU 上进行 CNN 模型推理优化
本文翻译自 Yizhi Liu, Yao Wang, Ruofei Yu.. 的 "Optimizing CNN Model Inference on CPUs" 原文链接: h ...
- MindSpore模型精度调优实践
MindSpore模型精度调优实践 引论:在模型的开发过程中,精度达不到预期常常让人头疼.为了帮助用户解决模型调试调优的问题,为MindSpore量身定做了可视化调试调优组件:MindInsight. ...
- 移动端 CPU 的深度学习模型推理性能优化——NCHW44 和 Record 原理方法详解
用户实践系列,将收录 MegEngine 用户在框架实践过程中的心得体会文章,希望能够帮助有同样使用场景的小伙伴,更好地了解和使用 MegEngine ~ 作者:王雷 | 旷视科技 研发工程师 背景 ...
- 【模型推理】Tengine 模型转换及量化
欢迎关注我的公众号 [极智视界],回复001获取Google编程规范 O_o >_< o_O O_o ~_~ o_O 本文介绍一下 Tengine 模型转换 ...
- 【模型推理】量化实现分享一:详解 min-max 对称量化算法实现
欢迎关注我的公众号 [极智视界],回复001获取Google编程规范 O_o >_< o_O O_o ~_~ o_O 大家好,我是极智视界,本文剖析一下 m ...
- 【模型推理】量化实现分享二:详解 KL 对称量化算法实现
欢迎关注我的公众号 [极智视界],回复001获取Google编程规范 O_o >_< o_O O_o ~_~ o_O 大家好,我是极智视界,本文剖析一下 K ...
随机推荐
- Vue method与computed的区别
为了说明method与computed的区别,在此我想先来看看computed属性在vue官网中的说法: 模板内的表达式是非常便利的,但是它们实际上只用于简单的运算.在模板中放入太多的逻辑会让模板过重 ...
- 基于三层交换机的VRRP技术--MSTP、VRRP的综合运用
MSTP (多生成树) 每个VLAN或者几个VLAN拥有一颗生成树,基于实例的生成树.instance 1.instance 2 每个实例拥有一颗生成树.MSTP可以实现多VLAN 的负载分担,可以实 ...
- Linux中使用gdb dump内存
在应急响应中,我们往往会有dump出某一块内存下来进行分析的必要.今天要讲的是利用gdb命令dump出sshd进程的内存. 按照 Linux 系统的设计哲学,内核只提供dump内存的机制,用户想要du ...
- <JVM下篇:性能监控与调优篇>04-JVM运行时参数
笔记来源:尚硅谷JVM全套教程,百万播放,全网巅峰(宋红康详解java虚拟机) 同步更新:https://gitee.com/vectorx/NOTE_JVM https://codechina.cs ...
- [BUUCTF-Pwn]刷题记录1
[BUUCTF-Pwn]刷题记录1 力争从今天(2021.3.23)开始每日至少一道吧--在这里记录一些栈相关的题目. 最近更新(2021.5.8) 如果我的解题步骤中有不正确的理解或不恰当的表述,希 ...
- 【python】Leetcode每日一题-132模式
[python]Leetcode每日一题-132模式 [题目描述] 给定一个整数序列:a1, a2, ..., an,一个132模式的子序列 ai, aj, ak 被定义为:当 i < j &l ...
- 大数据开发-Flink-数据流DataStream和DataSet
Flink主要用来处理数据流,所以从抽象上来看就是对数据流的处理,正如前面大数据开发-Flink-体系结构 && 运行架构提到写Flink程序实际上就是在写DataSource.Tra ...
- python工业互联网应用实战14——单元测试覆盖率
前面的章节我们完成了任务管理主要功能的开发及单元测试编写,可如何知道单元测试效果怎么样呢?测试充分吗?还有没有没有测到的地方呢? 本章节我们介绍一个统计测试代码覆盖率的利器Coverage,Cover ...
- Ubuntu部署项目
一.Ubuntu目录结构 目录 说明 bin 存放二进制可执行文件(ls,cat,mkdir等) .exe== boot 存放用于系统引导时使用的各种文件 开机引导 dev 用于存放设备文件 打印机啥 ...
- 1.初级篇——最基础的"穷竭搜索”
A.Lake Counting(POJ 2386) 题意: 由于最近的降雨,农夫约翰田地的各个地方都有水汇聚,用N x M(1 <= N <= 100; 1 <= M <= 1 ...