Tensorflow替换静态图中的OP
import tensorflow as tf
import collections
from tensorflow.core.framework import tensor_shape_pb2
# 读取模型
graph_def = tf.GraphDef()
with tf.gfile.FastGFile('./pb/model.pb', 'rb') as f:
graph_def.ParseFromString(f.read())
# 统计图中的node,保存为map.其中 key : value = op.name : op
input_node_map = {}
for node in graph_def.node:
if node.name not in input_node_map.keys():
input_node_map[node.name] = node
else:
raise ValueError("Duplicate node names detected for ", node.name)
# 统计每一个op被使用的次数
node_reference_count = collections.defaultdict(int)
output_node_names = ['xnet/Softmax']
for node in graph_def.node:
for input_name in node.input:
stripped_name = input_name
node_reference_count[stripped_name] += 1
for output_name in output_node_names:
node_reference_count[output_name] += 1
# 删除old_op
old_op = input_node_map['xnet/Layer_Conv_1/Conv2D']
node_reference_count['xnet/Layer_Conv_1/Conv2D'] -= 1
# 创建新的op
new_node = tf.NodeDef()
new_node.op = 'Conv2D'
new_node.name = 'new_Conv_1'
for input_name in old_op.input:
new_node.input.extend([input_name])
new_node.attr["T"].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum)) # (old_op.attr["T"])
new_node.attr["use_cudnn_on_gpu"].CopyFrom(tf.AttrValue(b=1)) # (old_op.attr["use_cudnn_on_gpu"])
stride_list = [1, 2, 2, 1]
new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list))) # (old_op.attr["strides"])
new_node.attr["padding"].CopyFrom(tf.AttrValue(s=b'VALID')) # (old_op.attr["padding"])
# 创建const类型的op,仅作为测试,本实验中不添加入graph
new_const = tf.NodeDef()
new_const.op = 'Const'
new_const.name = 'new_Const'
new_const.attr['dtype'].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum))
new_const.attr['value'].CopyFrom(
tf.AttrValue(tensor=tf.make_tensor_proto([4, 5, 0, 0, 8, 0, 7, 0], tf.float32, [4, 2])))
new_const.attr['_output_shapes'].CopyFrom(
tf.AttrValue(list=tf.AttrValue.ListValue(shape=[tensor_shape_pb2.TensorShapeProto(
dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=4), tensor_shape_pb2.TensorShapeProto.Dim(size=2)])])))
# 将new_node作为输入赋值给图中节点
for node in graph_def.node:
if old_op.name in node.input:
for i, name in enumerate(node.input):
if name == old_op.name:
node.input[i] = new_node.name
print('success_1')
# 定义一个新图
graph_def_new = tf.GraphDef()
for node in graph_def.node:
if node_reference_count[node.name] < 1:
continue
new = tf.NodeDef()
new.CopyFrom(node)
graph_def_new.node.extend([new])
graph_def_new.node.extend([new_node])
# graph_def_new.node.extend([new_const])
# 将新图注入到默认的Graph中
tf.import_graph_def(graph_def_new, name='') # Imports `graph_def` into the current default `Graph`
# 测试案例
with tf.Session() as sess:
tf.train.write_graph(sess.graph_def, logdir='./pb', name='graph_def_new.pb')
OP的信息:
name: "xnet/Layer_FC_32/xw_plus_b"
op: "BiasAdd"
input: "xnet/Layer_FC_32/xw_plus_b/MatMul"
input: "xnet/Layer_FC_32/biases/read"
attr
{
key: "T"
value {type: DT_FLOAT}
}
attr
{
key: "data_format"
value {s: "NHWC"}
}
在tensorflow中,OP主要包括以下信息:name, op , input, attr
name--类型string。 在模型定义的时候由工程师定义,如果工程师没有定义的话会自动的利用op作为其值
op--类型string。表示这是一个什么op,比如加减乘除,当在运行的时候,编译器会更具op调用相应的算子来做计算
input--类型list.。列表中包含了该节点输入,是有序的,不可以被assign
attr--类型map。map中的key和value一般是指该OP的配置信息
OP的操作:
1、op信息获取
1. 通过Graph获取op
op = tf.get_default_graph().get_Operations()
print(op[0])
print(op[0].name)
# 如果想获得属性或者input信息需要如下写法
print(op[0].node_def.attr)
2.通过Graph_def获取op
op = graph_def.node
print(op[0].name)
print(op[0].input)
2、op的创建无锡好的男科医院 http://www.zzchnk.com/
在构建新的op的时候需要对op的属性比较清楚,对于没有default的属性一定要做好初始化
1.根据已有的op创建新的op
new_node = tf.NodeDef() # 构建一个op对象,所有属性都为空
new_node.op = 'Conv2D'
new_node.name = 'new_Conv_1'
for input_name in old_op.input: # 原始op的input导入进来
new_node.input.extend([input_name])
new_node.attr["T"].CopyFrom(old_op.attr["T"])
new_node.attr["use_cudnn_on_gpu"].CopyFrom(old_op.attr["use_cudnn_on_gpu"])
new_node.attr["strides"].CopyFrom(old_op.attr["strides"])
new_node.attr["padding"].CopyFrom(old_op.attr["padding"])
2.创建一个自定义的op
new_op = tf.NodeDef()
new_op.op = "Const"
new_op.name = conv_op.name
new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))
new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))
OP中attr为map,每一个map中key为字符串,value为的类型由下面9种,每种对应的原型如下表所示:
repeated bytes s = 2; // "list(string)"
repeated int64 i = 3 [packed = true]; // "list(int)"
repeated float f = 4 [packed = true]; // "list(float)"
repeated bool b = 5 [packed = true]; // "list(bool)"
repeated DataType type = 6 [packed = true]; // "list(type)"
repeated TensorShapeProto shape = 7; // "list(shape)"
repeated TensorProto tensor = 8; // "list(tensor)"
repeated NameAttrList func = 9; // "list(attr)"
list 也为value的一种类型
每一种类型初始化方式:
CopyFrom(tf.AttrValue( s=b'hello,world'))
CopyFrom(tf.AttrValue( i=88 ))
CopyFrom(tf.AttrValue( f=88.0 ))
CopyFrom(tf.AttrValue( b=1/0 ))
new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))
from tensorflow.core.framework import tensor_shape_pb2
tensor_shape_pb2.TensorShapeProto(dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=-1 if d.value is None else d.value) for d in dims])
new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))
func目前没有没有遇到过
stride_list = [1, 2, 2, 1]
new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list)))
import tensorflow as tf
import collections
from tensorflow.core.framework import tensor_shape_pb2
# 读取模型
graph_def = tf.GraphDef()
with tf.gfile.FastGFile('./pb/model.pb', 'rb') as f:
graph_def.ParseFromString(f.read())
# 统计图中的node,保存为map.其中 key : value = op.name : op
input_node_map = {}
for node in graph_def.node:
if node.name not in input_node_map.keys():
input_node_map[node.name] = node
else:
raise ValueError("Duplicate node names detected for ", node.name)
# 统计每一个op被使用的次数
node_reference_count = collections.defaultdict(int)
output_node_names = ['xnet/Softmax']
for node in graph_def.node:
for input_name in node.input:
stripped_name = input_name
node_reference_count[stripped_name] += 1
for output_name in output_node_names:
node_reference_count[output_name] += 1
# 删除old_op
old_op = input_node_map['xnet/Layer_Conv_1/Conv2D']
node_reference_count['xnet/Layer_Conv_1/Conv2D'] -= 1
# 创建新的op
new_node = tf.NodeDef()
new_node.op = 'Conv2D'
new_node.name = 'new_Conv_1'
for input_name in old_op.input:
new_node.input.extend([input_name])
new_node.attr["T"].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum)) # (old_op.attr["T"])
new_node.attr["use_cudnn_on_gpu"].CopyFrom(tf.AttrValue(b=1)) # (old_op.attr["use_cudnn_on_gpu"])
stride_list = [1, 2, 2, 1]
new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list))) # (old_op.attr["strides"])
new_node.attr["padding"].CopyFrom(tf.AttrValue(s=b'VALID')) # (old_op.attr["padding"])
# 创建const类型的op,仅作为测试,本实验中不添加入graph
new_const = tf.NodeDef()
new_const.op = 'Const'
new_const.name = 'new_Const'
new_const.attr['dtype'].CopyFrom(tf.AttrValue(type=tf.float32.as_datatype_enum))
new_const.attr['value'].CopyFrom(
tf.AttrValue(tensor=tf.make_tensor_proto([4, 5, 0, 0, 8, 0, 7, 0], tf.float32, [4, 2])))
new_const.attr['_output_shapes'].CopyFrom(
tf.AttrValue(list=tf.AttrValue.ListValue(shape=[tensor_shape_pb2.TensorShapeProto(
dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=4), tensor_shape_pb2.TensorShapeProto.Dim(size=2)])])))
# 将new_node作为输入赋值给图中节点
for node in graph_def.node:
if old_op.name in node.input:
for i, name in enumerate(node.input):
if name == old_op.name:
node.input[i] = new_node.name
print('success_1')
# 定义一个新图
graph_def_new = tf.GraphDef()
for node in graph_def.node:
if node_reference_count[node.name] < 1:
continue
new = tf.NodeDef()
new.CopyFrom(node)
graph_def_new.node.extend([new])
graph_def_new.node.extend([new_node])
# graph_def_new.node.extend([new_const])
# 将新图注入到默认的Graph中
tf.import_graph_def(graph_def_new, name='') # Imports `graph_def` into the current default `Graph`
# 测试案例
with tf.Session() as sess:
tf.train.write_graph(sess.graph_def, logdir='./pb', name='graph_def_new.pb')
OP的信息:
name: "xnet/Layer_FC_32/xw_plus_b"
op: "BiasAdd"
input: "xnet/Layer_FC_32/xw_plus_b/MatMul"
input: "xnet/Layer_FC_32/biases/read"
attr
{
key: "T"
value {type: DT_FLOAT}
}
attr
{
key: "data_format"
value {s: "NHWC"}
}
在tensorflow中,OP主要包括以下信息:name, op , input, attr
name--类型string。 在模型定义的时候由工程师定义,如果工程师没有定义的话会自动的利用op作为其值
op--类型string。表示这是一个什么op,比如加减乘除,当在运行的时候,编译器会更具op调用相应的算子来做计算
input--类型list.。列表中包含了该节点输入,是有序的,不可以被assign
attr--类型map。map中的key和value一般是指该OP的配置信息
OP的操作:
1、op信息获取
1. 通过Graph获取op
op = tf.get_default_graph().get_Operations()
print(op[0])
print(op[0].name)
# 如果想获得属性或者input信息需要如下写法
print(op[0].node_def.attr)
2.通过Graph_def获取op
op = graph_def.node
print(op[0].name)
print(op[0].input)
2、op的创建
在构建新的op的时候需要对op的属性比较清楚,对于没有default的属性一定要做好初始化
1.根据已有的op创建新的op
new_node = tf.NodeDef() # 构建一个op对象,所有属性都为空
new_node.op = 'Conv2D'
new_node.name = 'new_Conv_1'
for input_name in old_op.input: # 原始op的input导入进来
new_node.input.extend([input_name])
new_node.attr["T"].CopyFrom(old_op.attr["T"])
new_node.attr["use_cudnn_on_gpu"].CopyFrom(old_op.attr["use_cudnn_on_gpu"])
new_node.attr["strides"].CopyFrom(old_op.attr["strides"])
new_node.attr["padding"].CopyFrom(old_op.attr["padding"])
2.创建一个自定义的op
new_op = tf.NodeDef()
new_op.op = "Const"
new_op.name = conv_op.name
new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))
new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))
OP中attr为map,每一个map中key为字符串,value为的类型由下面9种,每种对应的原型如下表所示:
repeated bytes s = 2; // "list(string)"
repeated int64 i = 3 [packed = true]; // "list(int)"
repeated float f = 4 [packed = true]; // "list(float)"
repeated bool b = 5 [packed = true]; // "list(bool)"
repeated DataType type = 6 [packed = true]; // "list(type)"
repeated TensorShapeProto shape = 7; // "list(shape)"
repeated TensorProto tensor = 8; // "list(tensor)"
repeated NameAttrList func = 9; // "list(attr)"
list 也为value的一种类型
每一种类型初始化方式:
CopyFrom(tf.AttrValue( s=b'hello,world'))
CopyFrom(tf.AttrValue( i=88 ))
CopyFrom(tf.AttrValue( f=88.0 ))
CopyFrom(tf.AttrValue( b=1/0 ))
new_op.attr["dtype"].CopyFrom(tf.AttrValue( type=tf.int32.as_datatype_enum))
from tensorflow.core.framework import tensor_shape_pb2
tensor_shape_pb2.TensorShapeProto(dim=[tensor_shape_pb2.TensorShapeProto.Dim(size=-1 if d.value is None else d.value) for d in dims])
new_op.attr["value"].CopyFrom(tf.AttrValue(tensor=tf.make_tensor_proto([0, 0, 0, 0, 0, 0, 0, 0], tf.int32, [4, 2])))
func目前没有没有遇到过
stride_list = [1, 2, 2, 1]
new_node.attr["strides"].CopyFrom(tf.AttrValue(list=tf.AttrValue.ListValue(i=stride_list)))
Tensorflow替换静态图中的OP的更多相关文章
- Tensorflow选择性初始化图中的变量
import tensorflow as tf def initialize_uninitialized(sess): global_vars = tf.global_variables() is_n ...
- 如何设计一个高内聚低耦合的模块——MegEngine 中自定义 Op 系统的实践经验
作者:褚超群 | 旷视科技 MegEngine 架构师 背景介绍 在算法研究的过程中,算法同学们可能经常会尝试定义各种新的神经网络层(neural network layer),比如 Layer No ...
- 【UML 建模】UML建模语言入门 -- 静态图详解 类图 对象图 包图 静态图建模实战
发现个好东西思维导图, 最近开始用MindManager整理博客 . 作者 :万境绝尘 转载请注明出处 : http://blog.csdn.net/shulianghan/article/deta ...
- UML建模语言入门 -- 静态图详解 类图 对象图 包图 静态图建模实战
发现个好东西思维导图, 最近开始用MindManager整理博客 . 作者 :万境绝尘 转载请注明出处 : http://blog.csdn.net/shulianghan/article/deta ...
- 小白学PyTorch 动态图与静态图的浅显理解
文章来自公众号[机器学习炼丹术],回复"炼丹"即可获得海量学习资料哦! 目录 1 动态图的初步推导 2 动态图的叶子节点 3. grad_fn 4 静态图 本章节缕一缕PyTorc ...
- (第一章第二部分)TensorFlow框架之图与TensorBoard
系列博客链接: (一)TensorFlow框架介绍:https://www.cnblogs.com/kongweisi/p/11038395.html 本文概述: 说明图的基本使用 应用tf.Grap ...
- tensorflow 升级到1.9-rc0,生成静态图frozen graph.pb本地测试正常, 在其他版本(eg1.4版本)或者android下运行出错NodeDef mentions attr 'dilations' not in Op<name=Conv2D; signature=input:T, filter:T -> output:T; attr=T:type,allowed=[DT_
这时节点定义找不到NodeDef attr 'dilations' not in,说明执行版本的NodeDef不在节点定义上,两个不一致,分别是执行inference的代码和生成静态图节点不一致(当然 ...
- AI学习---TensorFlow框架介绍[图+会话+张量+变量OP+API]
TensorFlow的数据流图 TensorFlow的结构分析: 图 + 会话 TensorFlow = 构图阶段(数据与操作的执行步骤被描绘出一个图) + 执行图阶段(使用回话执行构建好的图中操作) ...
- Dive into TensorFlow系列(1)-静态图运行原理
接触过TensorFlow v1的朋友都知道,训练一个TF模型有三个步骤:定义输入和模型结构,创建tf.Session实例sess,执行sess.run()启动训练.不管是因为历史遗留代码或是团队保守 ...
随机推荐
- Running MYSQL 5.7 By Bash On Ubuntu On Windows:ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/var/run/mysqld/mysqld.sock' (2)
root@PC-RENGUOQIANG:/usr/sbin# /etc/init.d/mysql start * Starting MySQL database server mysqld [ OK ...
- NLP基本模型
textcnn: 加载预训练词典:https://blog.csdn.net/nlpuser/article/details/83627709 构建textcnn网络:https://blog.csd ...
- ubuntu连接多个realsense d435
ubuntu连接多个realsense d435 import pyrealsense2 as rs import numpy as np import cv2 import time import ...
- 在 Python 中使用定时器
今天看到一个比较人性化的定时模块 schedule,目前 star 数为 6432,还是非常的受欢迎,这个模块也是秉承这 For Humans 的原则,这里推荐给大家.地址 https://githu ...
- java继承实现的基本原理
方法调用的过程 寻找要执行的实例方法的时候,是从对象的实际类型信息开始查找的,找不到的时候,再查找父类类型信息. 动态绑定,而动态绑定实现的机制就是根据对象的实际类型查找要执行的方法,子类型中找不到的 ...
- Embarcadero Delphi 7 Lite 7.0.4.453 中文版
https://www.7down.com/soft/116014.html 软件介绍 Embarcadero Delphi 7精简版 是Windows平台下著名的快速应用程序开发工具(Rapid A ...
- VC++ 学习笔记(六):简单C++
到现在,我觉得终于找到学习和使用C++的基本原则了——务必简单.将其看成一个带类的C,或者将其看做标准库下的C++. C++太复杂——其实这种复杂性,所有语言都有,只是多数语言都隐藏了这种复杂性,只有 ...
- 【论文阅读】PBA-Population Based Augmentation:Efficient Learning of Augmentation Policy Schedules
参考 1. PBA_paper; 2. github; 3. Berkeley_blog; 4. pabbeel_berkeley_EECS_homepage; 完
- Leetcode problems classified by company 题目按公司分类(Last updated: October 2, 2017)
All LeetCode Questions List 题目汇总 Sorted by frequency of problems that appear in real interviews. Las ...
- 最常见的Java面试题及答案汇总(三)
上一篇:最常见的Java面试题及答案汇总(二) 多线程 35. 并行和并发有什么区别? 并行是指两个或者多个事件在同一时刻发生:而并发是指两个或多个事件在同一时间间隔发生. 并行是在不同实体上的多个事 ...