tflearn 中文汉字识别,训练后模型存为pb给TensorFlow使用. 数据目录在data,data下放了汉字识别图片: data$ ls0  1  10  11  12  13  14  15  16  2  3  4  5  6  7  8  9 datag$ ls 0xxx.png yyy.png .... 代码: 如果将get model里的模型层数加非常深,训练时候很可能不会收敛,精度一直停留下1%以内. # -*- coding: utf-8 -*- from __future…
def get_model(width, height, classes=40): # TODO, modify model # Building 'VGG Network' network = input_data(shape=[None, width, height, 1]) # if RGB, 224,224,3 network = conv_2d(network, 64, 3, activation='relu') #network = conv_2d(network, 64, 3, a…
模型优化工具包是一套先进的技术工具包,可协助新手和高级开发者优化待部署和执行的机器学习模型.自推出该工具包以来,  我们一直努力降低机器学习模型量化的复杂性 (https://www.tensorflow.org/lite/performance/post_training_quantization). 最初,我们通过"混合运算"为训练后量化提供支持,该方法可量化模型参数(例如权重),但以浮点方式执行部分计算.今天,我们很高兴宣布推出一款新工具:训练后整型量化.整型量化是一种通用技术,…
 OCR(Optical character recognition) —— 光学字符识别,是图像处理的一个重要分支,中文的识别具有一定挑战性,特别是手写体和草书的识别,是重要和热门的科学研究方向.可惜国内的科研院所,基本没有几个高识别率的训练集——笔者联系过北京语言大学研究生一篇论文的作者,他们论文说有%90的正确识别率,结果只做了20个笔画简单的汉字(20/6753 = %0.3 常用简体汉字的千分之三),然后找了20个学生,各自手写了一遍.真的是为了论文而论文,而且很会选择样本(小而简单)…
一个中文utf8编码后是占3个字符,所以求长度的函数可以这样写 def str_len(str): try: row_l=len(str) utf8_l=len(str.encode('utf-8')) +row_l except: return None return None unicode中汉字为两字节, utf-8中汉字为三字节 https://en.wikipedia.org/wiki/Unicode https://en.wikipedia.org/wiki/UTF-8…
闲着没事写了个小工具,将中文转拼音后填充到url做参数并写如excel 一.先看下演示,是个什么东西 二.代码 代码用到一个中文转拼音的库,库是网上下的,稍微做了下修改,已经找不原来下载的地址了,然后需要装个pywin32库,用来写excel表格的,下面看代码. #!/usr/bin/env python # coding=utf-8# Author: ca0gu0 from lib.chinese2pinyin import search from time import sleep impo…
一.TensorFlow的模型保存和加载,使我们在训练和使用时的一种常用方式.我们把训练好的模型通过二次加载训练,或者独立加载模型训练.这基本上都是比较常用的方式. 二.模型的保存与加载类型有2种 1)需要重新建立图谱,来实现模型的加载 2)独家加载模型 模型的保存与训练加载: tf.train.Saver(<var_list>,<max_to_keep>) var_list: 指定要保存和还原的变量,作为一个dict或者list传递 max_to_keep: 指示要保留的最大检查…
本文简述了以下内容: 神经概率语言模型NPLM,训练语言模型并同时得到词表示 word2vec:CBOW / Skip-gram,直接以得到词表示为目标的模型 (一)原始CBOW(Continuous Bag-of-Words)模型 (二)原始Skip-gram模型 (三)word analogy 神经概率语言模型NPLM 上篇文简单整理了一下不同视角下的词表示模型.近年来,word embedding可以说已经成为了各种神经网络方法(CNN.RNN乃至各种网络结构,深层也好不深也罢)处理NLP…
转载自知乎:Roofline Model与深度学习模型的性能分析 在真实世界中,任何模型(例如 VGG / MobileNet 等)都必须依赖于具体的计算平台(例如CPU / GPU / ASIC 等)才能展现自己的实力.此时,模型和计算平台的"默契程度"会决定模型的实际表现.Roofline Model 提出了使用 Operational Intensity(计算强度)进行定量分析的方法,并给出了模型在计算平台上所能达到理论计算性能上限公式. 一.指标介绍 1.计算平台的两个指标:算…
神经网络.<Make Your Own Neural Network>,用非常通俗易懂描述讲解人工神经网络原理用代码实现,试验效果非常好. 循环神经网络和LSTM.Christopher Olah http://colah.github.io/posts/2015-08-Understanding-LSTMs/ . seq2seq模型基于循环神经网络序列到序列模型,语言翻译.自动问答等序列到序列场景,都可用seq2seq模型,用seq2seq实现聊天机器人的原理 http://suriyade…