import tensorflow as tf

  import collections

  from tensorflow.core.framework import tensor_shape_pb2

  # 读取模型

  graph_def = tf.GraphDef()

  with tf.gfile.FastGFile('./pb/model.pb', 'rb') as f:

  graph_def.ParseFromString(f.read())

  # 统计图中的node,保存为map.其中 key : value = op.name : op

  input_node_map = {}

  for node in graph_def.node:

  if node.name not in input_node_map.keys():

  input_node_map[node.name] = node

  else:

  raise ValueError("Duplicate node names detected for ", node.name)

  # 统计每一个op被使用的次数

  node_reference_count = collections.defaultdict(int)

  output_node_names = ['xnet/Softmax']

  for node in graph_def.node:

  for input_name in node.input:

  stripped_name = input_name

  node_reference_count[stripped_name] += 1

  for output_name in output_node_names:

  node_reference_count[output_name] += 1

  # 删除old_op

  old_op = input_node_map['xnet/Layer_Conv_1/Conv2D']

  node_reference_count['xnet/Layer_Conv_1/Conv2D'] -= 1

  # 创建新的op

  new_node = tf.NodeDef()

  new_node.op = 'Conv2D'

  new_node.name = 'new_Conv_1'

  for input_name in old_op.input:

  new_node.input.extend([input_name])

  new_node.attr["T"].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum)) # (old_op.attr["T"])

  new_node.attr["use_cudnn_on_gpu"].CopyFrom(tf.AttrValue(b=1)) # (old_op.attr["use_cudnn_on_gpu"])

  stride_list = [1, 2, 2, 1]

  new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list))) # (old_op.attr["strides"])

  new_node.attr["padding"].CopyFrom(tf.AttrValue(s=b'VALID')) # (old_op.attr["padding"])

  # 创建const类型的op,仅作为测试,本实验中不添加入graph

  new_const = tf.NodeDef()

  new_const.op = 'Const'

  new_const.name = 'new_Const'

  new_const.attr['dtype'].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum))

  new_const.attr['value'].CopyFrom(

  tf.AttrValue(tensor=tf.make_tensor_proto([4, 5, 0, 0, 8, 0, 7, 0], tf.float32, [4, 2])))

  new_const.attr['_output_shapes'].CopyFrom(

  tf.AttrValue(list=tf.AttrValue.ListValue(shape=[tensor_shape_pb2.TensorShapeProto(

  dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=4), tensor_shape_pb2.TensorShapeProto.Dim(size=2)])])))

  # 将new_node作为输入赋值给图中节点

  for node in graph_def.node:

  if old_op.name in node.input:

  for i, name in enumerate(node.input):

  if name == old_op.name:

  node.input[i] = new_node.name

  print('success_1')

  # 定义一个新图

  graph_def_new = tf.GraphDef()

  for node in graph_def.node:

  if node_reference_count[node.name] < 1:

  continue

  new = tf.NodeDef()

  new.CopyFrom(node)

  graph_def_new.node.extend([new])

  graph_def_new.node.extend([new_node])

  # graph_def_new.node.extend([new_const])

  # 将新图注入到默认的Graph中

  tf.import_graph_def(graph_def_new, name='') # Imports `graph_def` into the current default `Graph`

  # 测试案例

  with tf.Session() as sess:

  tf.train.write_graph(sess.graph_def, logdir='./pb', name='graph_def_new.pb')

  OP的信息:

  name: "xnet/Layer_FC_32/xw_plus_b"

  op: "BiasAdd"

  input: "xnet/Layer_FC_32/xw_plus_b/MatMul"

  input: "xnet/Layer_FC_32/biases/read"

  attr

  {

  key: "T"

  value {type: DT_FLOAT}

  }

  attr

  {

  key: "data_format"

  value {s: "NHWC"}

  }

  在tensorflow中,OP主要包括以下信息:name, op , input, attr

  name--类型string。 在模型定义的时候由工程师定义,如果工程师没有定义的话会自动的利用op作为其值

  op--类型string。表示这是一个什么op,比如加减乘除,当在运行的时候,编译器会更具op调用相应的算子来做计算

  input--类型list.。列表中包含了该节点输入,是有序的,不可以被assign

  attr--类型map。map中的key和value一般是指该OP的配置信息

  OP的操作:

  1、op信息获取

  1. 通过Graph获取op

  op = tf.get_default_graph().get_Operations()

  print(op[0])

  print(op[0].name)

  # 如果想获得属性或者input信息需要如下写法

  print(op[0].node_def.attr)

  2.通过Graph_def获取op

  op = graph_def.node

  print(op[0].name)

  print(op[0].input)

  2、op的创建无锡好的男科医院 http://www.zzchnk.com/

  在构建新的op的时候需要对op的属性比较清楚,对于没有default的属性一定要做好初始化

  1.根据已有的op创建新的op

  new_node = tf.NodeDef() # 构建一个op对象,所有属性都为空

  new_node.op = 'Conv2D'

  new_node.name = 'new_Conv_1'

  for input_name in old_op.input: # 原始op的input导入进来

  new_node.input.extend([input_name])

  new_node.attr["T"].CopyFrom(old_op.attr["T"])

  new_node.attr["use_cudnn_on_gpu"].CopyFrom(old_op.attr["use_cudnn_on_gpu"])

  new_node.attr["strides"].CopyFrom(old_op.attr["strides"])

  new_node.attr["padding"].CopyFrom(old_op.attr["padding"])

  2.创建一个自定义的op

  new_op = tf.NodeDef()

  new_op.op = "Const"

  new_op.name = conv_op.name

  new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))

  new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))

  OP中attr为map,每一个map中key为字符串,value为的类型由下面9种,每种对应的原型如下表所示:

  repeated bytes s = 2; // "list(string)"

  repeated int64 i = 3 [packed = true]; // "list(int)"

  repeated float f = 4 [packed = true]; // "list(float)"

  repeated bool b = 5 [packed = true]; // "list(bool)"

  repeated DataType type = 6 [packed = true]; // "list(type)"

  repeated TensorShapeProto shape = 7; // "list(shape)"

  repeated TensorProto tensor = 8; // "list(tensor)"

  repeated NameAttrList func = 9; // "list(attr)"

  list 也为value的一种类型

  每一种类型初始化方式:

  CopyFrom(tf.AttrValue( s=b'hello,world'))

  CopyFrom(tf.AttrValue( i=88 ))

  CopyFrom(tf.AttrValue( f=88.0 ))

  CopyFrom(tf.AttrValue( b=1/0 ))

  new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))

  from tensorflow.core.framework import tensor_shape_pb2

  tensor_shape_pb2.TensorShapeProto(dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=-1 if d.value is None else d.value) for d in dims])

  new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))

  func目前没有没有遇到过

  stride_list = [1, 2, 2, 1]

  new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list)))

  import tensorflow as tf

  import collections

  from tensorflow.core.framework import tensor_shape_pb2

  # 读取模型

  graph_def = tf.GraphDef()

  with tf.gfile.FastGFile('./pb/model.pb', 'rb') as f:

  graph_def.ParseFromString(f.read())

  # 统计图中的node,保存为map.其中 key : value = op.name : op

  input_node_map = {}

  for node in graph_def.node:

  if node.name not in input_node_map.keys():

  input_node_map[node.name] = node

  else:

  raise ValueError("Duplicate node names detected for ", node.name)

  # 统计每一个op被使用的次数

  node_reference_count = collections.defaultdict(int)

  output_node_names = ['xnet/Softmax']

  for node in graph_def.node:

  for input_name in node.input:

  stripped_name = input_name

  node_reference_count[stripped_name] += 1

  for output_name in output_node_names:

  node_reference_count[output_name] += 1

  # 删除old_op

  old_op = input_node_map['xnet/Layer_Conv_1/Conv2D']

  node_reference_count['xnet/Layer_Conv_1/Conv2D'] -= 1

  # 创建新的op

  new_node = tf.NodeDef()

  new_node.op = 'Conv2D'

  new_node.name = 'new_Conv_1'

  for input_name in old_op.input:

  new_node.input.extend([input_name])

  new_node.attr["T"].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum)) # (old_op.attr["T"])

  new_node.attr["use_cudnn_on_gpu"].CopyFrom(tf.AttrValue(b=1)) # (old_op.attr["use_cudnn_on_gpu"])

  stride_list = [1, 2, 2, 1]

  new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list))) # (old_op.attr["strides"])

  new_node.attr["padding"].CopyFrom(tf.AttrValue(s=b'VALID')) # (old_op.attr["padding"])

  # 创建const类型的op,仅作为测试,本实验中不添加入graph

  new_const = tf.NodeDef()

  new_const.op = 'Const'

  new_const.name = 'new_Const'

  new_const.attr['dtype'].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum))

  new_const.attr['value'].CopyFrom(

  tf.AttrValue(tensor=tf.make_tensor_proto([4, 5, 0, 0, 8, 0, 7, 0], tf.float32, [4, 2])))

  new_const.attr['_output_shapes'].CopyFrom(

  tf.AttrValue(list=tf.AttrValue.ListValue(shape=[tensor_shape_pb2.TensorShapeProto(

  dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=4), tensor_shape_pb2.TensorShapeProto.Dim(size=2)])])))

  # 将new_node作为输入赋值给图中节点

  for node in graph_def.node:

  if old_op.name in node.input:

  for i, name in enumerate(node.input):

  if name == old_op.name:

  node.input[i] = new_node.name

  print('success_1')

  # 定义一个新图

  graph_def_new = tf.GraphDef()

  for node in graph_def.node:

  if node_reference_count[node.name] < 1:

  continue

  new = tf.NodeDef()

  new.CopyFrom(node)

  graph_def_new.node.extend([new])

  graph_def_new.node.extend([new_node])

  # graph_def_new.node.extend([new_const])

  # 将新图注入到默认的Graph中

  tf.import_graph_def(graph_def_new, name='') # Imports `graph_def` into the current default `Graph`

  # 测试案例

  with tf.Session() as sess:

  tf.train.write_graph(sess.graph_def, logdir='./pb', name='graph_def_new.pb')

  OP的信息:

  name: "xnet/Layer_FC_32/xw_plus_b"

  op: "BiasAdd"

  input: "xnet/Layer_FC_32/xw_plus_b/MatMul"

  input: "xnet/Layer_FC_32/biases/read"

  attr

  {

  key: "T"

  value {type: DT_FLOAT}

  }

  attr

  {

  key: "data_format"

  value {s: "NHWC"}

  }

  在tensorflow中,OP主要包括以下信息:name, op , input, attr

  name--类型string。 在模型定义的时候由工程师定义,如果工程师没有定义的话会自动的利用op作为其值

  op--类型string。表示这是一个什么op,比如加减乘除,当在运行的时候,编译器会更具op调用相应的算子来做计算

  input--类型list.。列表中包含了该节点输入,是有序的,不可以被assign

  attr--类型map。map中的key和value一般是指该OP的配置信息

  OP的操作:

  1、op信息获取

  1. 通过Graph获取op

  op = tf.get_default_graph().get_Operations()

  print(op[0])

  print(op[0].name)

  # 如果想获得属性或者input信息需要如下写法

  print(op[0].node_def.attr)

  2.通过Graph_def获取op

  op = graph_def.node

  print(op[0].name)

  print(op[0].input)

  2、op的创建

  在构建新的op的时候需要对op的属性比较清楚,对于没有default的属性一定要做好初始化

  1.根据已有的op创建新的op

  new_node = tf.NodeDef() # 构建一个op对象,所有属性都为空

  new_node.op = 'Conv2D'

  new_node.name = 'new_Conv_1'

  for input_name in old_op.input: # 原始op的input导入进来

  new_node.input.extend([input_name])

  new_node.attr["T"].CopyFrom(old_op.attr["T"])

  new_node.attr["use_cudnn_on_gpu"].CopyFrom(old_op.attr["use_cudnn_on_gpu"])

  new_node.attr["strides"].CopyFrom(old_op.attr["strides"])

  new_node.attr["padding"].CopyFrom(old_op.attr["padding"])

  2.创建一个自定义的op

  new_op = tf.NodeDef()

  new_op.op = "Const"

  new_op.name = conv_op.name

  new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))

  new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))

  OP中attr为map,每一个map中key为字符串,value为的类型由下面9种,每种对应的原型如下表所示:

  repeated bytes s = 2; // "list(string)"

  repeated int64 i = 3 [packed = true]; // "list(int)"

  repeated float f = 4 [packed = true]; // "list(float)"

  repeated bool b = 5 [packed = true]; // "list(bool)"

  repeated DataType type = 6 [packed = true]; // "list(type)"

  repeated TensorShapeProto shape = 7; // "list(shape)"

  repeated TensorProto tensor = 8; // "list(tensor)"

  repeated NameAttrList func = 9; // "list(attr)"

  list 也为value的一种类型

  每一种类型初始化方式:

  CopyFrom(tf.AttrValue( s=b'hello,world'))

  CopyFrom(tf.AttrValue( i=88 ))

  CopyFrom(tf.AttrValue( f=88.0 ))

  CopyFrom(tf.AttrValue( b=1/0 ))

  new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))

  from tensorflow.core.framework import tensor_shape_pb2

  tensor_shape_pb2.TensorShapeProto(dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=-1 if d.value is None else d.value) for d in dims])

  new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))

  func目前没有没有遇到过

  stride_list = [1, 2, 2, 1]

  new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list)))

Tensorflow替换静态图中的OP的更多相关文章

  1. Tensorflow选择性初始化图中的变量

    import tensorflow as tf def initialize_uninitialized(sess): global_vars = tf.global_variables() is_n ...

  2. 如何设计一个高内聚低耦合的模块——MegEngine 中自定义 Op 系统的实践经验

    作者:褚超群 | 旷视科技 MegEngine 架构师 背景介绍 在算法研究的过程中,算法同学们可能经常会尝试定义各种新的神经网络层(neural network layer),比如 Layer No ...

  3. 【UML 建模】UML建模语言入门 -- 静态图详解 类图 对象图 包图 静态图建模实战

    发现个好东西思维导图, 最近开始用MindManager整理博客 . 作者 :万境绝尘  转载请注明出处 : http://blog.csdn.net/shulianghan/article/deta ...

  4. UML建模语言入门 -- 静态图详解 类图 对象图 包图 静态图建模实战

    发现个好东西思维导图, 最近开始用MindManager整理博客 . 作者 :万境绝尘  转载请注明出处 : http://blog.csdn.net/shulianghan/article/deta ...

  5. 小白学PyTorch 动态图与静态图的浅显理解

    文章来自公众号[机器学习炼丹术],回复"炼丹"即可获得海量学习资料哦! 目录 1 动态图的初步推导 2 动态图的叶子节点 3. grad_fn 4 静态图 本章节缕一缕PyTorc ...

  6. (第一章第二部分)TensorFlow框架之图与TensorBoard

    系列博客链接: (一)TensorFlow框架介绍:https://www.cnblogs.com/kongweisi/p/11038395.html 本文概述: 说明图的基本使用 应用tf.Grap ...

  7. tensorflow 升级到1.9-rc0,生成静态图frozen graph.pb本地测试正常, 在其他版本(eg1.4版本)或者android下运行出错NodeDef mentions attr 'dilations' not in Op<name=Conv2D; signature=input:T, filter:T -> output:T; attr=T:type,allowed=[DT_

    这时节点定义找不到NodeDef attr 'dilations' not in,说明执行版本的NodeDef不在节点定义上,两个不一致,分别是执行inference的代码和生成静态图节点不一致(当然 ...

  8. AI学习---TensorFlow框架介绍[图+会话+张量+变量OP+API]

    TensorFlow的数据流图 TensorFlow的结构分析: 图 + 会话 TensorFlow = 构图阶段(数据与操作的执行步骤被描绘出一个图) + 执行图阶段(使用回话执行构建好的图中操作) ...

  9. Dive into TensorFlow系列(1)-静态图运行原理

    接触过TensorFlow v1的朋友都知道,训练一个TF模型有三个步骤:定义输入和模型结构,创建tf.Session实例sess,执行sess.run()启动训练.不管是因为历史遗留代码或是团队保守 ...

随机推荐

  1. Running MYSQL 5.7 By Bash On Ubuntu On Windows:ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/var/run/mysqld/mysqld.sock' (2)

    root@PC-RENGUOQIANG:/usr/sbin# /etc/init.d/mysql start * Starting MySQL database server mysqld [ OK ...

  2. NLP基本模型

    textcnn: 加载预训练词典:https://blog.csdn.net/nlpuser/article/details/83627709 构建textcnn网络:https://blog.csd ...

  3. ubuntu连接多个realsense d435

    ubuntu连接多个realsense d435 import pyrealsense2 as rs import numpy as np import cv2 import time import ...

  4. 在 Python 中使用定时器

    今天看到一个比较人性化的定时模块 schedule,目前 star 数为 6432,还是非常的受欢迎,这个模块也是秉承这 For Humans 的原则,这里推荐给大家.地址 https://githu ...

  5. java继承实现的基本原理

    方法调用的过程 寻找要执行的实例方法的时候,是从对象的实际类型信息开始查找的,找不到的时候,再查找父类类型信息. 动态绑定,而动态绑定实现的机制就是根据对象的实际类型查找要执行的方法,子类型中找不到的 ...

  6. Embarcadero Delphi 7 Lite 7.0.4.453 中文版

    https://www.7down.com/soft/116014.html 软件介绍 Embarcadero Delphi 7精简版 是Windows平台下著名的快速应用程序开发工具(Rapid A ...

  7. VC++ 学习笔记(六):简单C++

    到现在,我觉得终于找到学习和使用C++的基本原则了——务必简单.将其看成一个带类的C,或者将其看做标准库下的C++. C++太复杂——其实这种复杂性,所有语言都有,只是多数语言都隐藏了这种复杂性,只有 ...

  8. 【论文阅读】PBA-Population Based Augmentation:Efficient Learning of Augmentation Policy Schedules

    参考 1. PBA_paper; 2. github; 3. Berkeley_blog; 4. pabbeel_berkeley_EECS_homepage; 完

  9. Leetcode problems classified by company 题目按公司分类(Last updated: October 2, 2017)

    All LeetCode Questions List 题目汇总 Sorted by frequency of problems that appear in real interviews. Las ...

  10. 最常见的Java面试题及答案汇总(三)

    上一篇:最常见的Java面试题及答案汇总(二) 多线程 35. 并行和并发有什么区别? 并行是指两个或者多个事件在同一时刻发生:而并发是指两个或多个事件在同一时间间隔发生. 并行是在不同实体上的多个事 ...