基于LSTM对西储大学轴承故障进行分析
这篇文章是小萌新对西储大学轴承故障进行分析,固定特征为故障直径为0.007,电机转速为1797,12k驱动端故障数据(Drive_End)即DE-time。故障类型y值:滚动体故障,内圈故障,3时,6时,12时外圈故障。
由于CWRU包无法在python3中直接用,因此首先改写了cwru的代码,直接进行数据处理并划分为训练集和测试集。接着对这些数据进行HHT转换,求出imfs,最后再构建LSTM模型进行分析。
import PyEMD from PyEMD import * import scipy from scipy.io import loadmat import matplotlib.pyplot as plt from matplotlib import * import os import errno import urllib.request as urllib import numpy as np from scipy.io import loadmat import random import pandas as pd from keras.callbacks import ModelCheckpoint from keras.models import Model, load_model, Sequential from keras.layers import Dense, Activation, Dropout, Input, Masking, TimeDistributed, LSTM, Conv1D, Flatten from keras.layers import GRU, Bidirectional, BatchNormalization, Reshape from keras.optimizers import Adam from keras.utils import to_categorical from keras.utils import plot_model '''选取训练集和测试集数据 #选取故障直径为0.007,电机转速为1797,12k驱动端故障数据(Drive_End), #y值分别为滚动体故障,内圈故障,3时,6时,12时外圈故障''' ## ===================================================选取数据=============================================================== # class CWRU: def __init__(self, path1,length): file_list = [] for root,dirs,files in os.walk(path1): for file in files: if '12k_Drive_End' in file and '007' in file and '_0_' in file: file_list.append(file) self.length = length self._load_and_slice_data(path1, file_list) # shuffle training and test arrays def _load_and_slice_data(self, rdir, infos): self.X_train = np.zeros((0, self.length)) self.X_test = np.zeros((0, self.length)) self.y_train = [] self.y_test = [] for idx, info in enumerate(infos): # # directory of this file fdir = os.path.join(rdir, info) mat_dict = loadmat(fdir) #载入数据 fliter_i = filter(lambda x: 'DE_time' in x, mat_dict.keys()) #提取数据中的de-time部分 fliter_list = [item for item in fliter_i] key = fliter_list[0] #这两步是取key值 # key = filter(lambda x: 'DE_time' in x, mat_dict.keys())[0] time_series1 = mat_dict[key][:, 0] #将DE-time的时间序列取出来 time_series = time_series1[:120001] idx_last = -(time_series.shape[0] % self.length) #算出信号长度整数倍外还有那些数 clips = time_series[:idx_last].reshape(-1, self.length) # 将提取的时间序列转换成二维,每一个数据的长度为设置的长度 n = clips.shape[0] #行数,也就是代表数据量的大小 n_split =int((3 * n / 4)) #设置训练集和测试集的比例 self.X_train = np.vstack((self.X_train, clips[:n_split])) #取训练集 self.X_test = np.vstack((self.X_test, clips[n_split:])) #取测试集 self.y_train += [idx] * n_split #给故障类型设立标签 self.y_test += [idx] * (clips.shape[0] - n_split) #给测试的故障类型设立标签 path1 = r"E:\work\CWRU_analysis\CaseWesternReserveUniversityData-master" data = CWRU(path1, 400) X_train,y_train, X_test,y_test = [],[],[],[] X_test.extend(data.X_test) y_test.extend(data.y_test) X_train.extend(data.X_train) y_train.extend(data.y_train) ''' ===============================================将data进行HHT,求出imf,这会转成三维的数据============================================================================ #对每个 数据去求imf,并作为输入''' def data_to_imf(Data,t): imf = [] for data in Data: emd = EMD() imf_ = emd.emd(data,t)[:5] imf.append(imf_) return np.array(imf).reshape(-1,5,400) t = np.linspace(0, 1, 12000)[:400] a = data_to_imf(X_train,t) X_train_data = np.transpose(a,(0,2,1)) y_train_data = to_categorical(y_train) #将数据转换成类别矩阵 b= data_to_imf(X_test,t) X_test_data = np.transpose(b,(0,2,1)) y_test_data = to_categorical(y_test) ''' # =======================================构建LSTM模型并实验======================================================================================== # ''' def create_model(): model = Sequential() #输入数据的shape为(n_samples, timestamps, features) #隐藏层设置为20, input_shape元组第二个参数1意指features为1 model.add(LSTM(units=20,input_shape=(X_train_data.shape[1], X_train_data.shape[2]))) # model.add(Dropout(0.2)) #后接全连接层,直接输出单个值,故units为10 model.add(Dense(units=5)) model.add(Activation('softmax'))#选用非线性激活函数,用于分类 model.compile(loss='categorical_crossentropy',optimizer=Adam(lr=0.001), metrics=['accuracy'])#损失函数为平均均方误差,优化器为Adam,学习率为0.001 return model model = create_model() history =model.fit(X_train_data, y_train_data, epochs=1000, batch_size=225) #求损失函数 loss, acc = model.evaluate(X_test_data, y_test_data) #保存模型 model_save_path = "model_file_path.h5" model.save(model_save_path) model.summary() #输出准确率 print("Dev set accuracy = ", acc)
本文有参考众多故障分析文章,但是忘了保存,没有链接了。。。。。。。。
基于LSTM对西储大学轴承故障进行分析的更多相关文章
- 基于SCADA数据驱动的风电机组部件故障预警
吴亚联 1 , 梁坤鑫 1 , 苏永新 1* , 詹 俊 2(1.湘潭大学 信息工程学院, 湖南 湘潭 411105: 2.湖南优利泰克自动化系统有限公司, 湖南 长沙 410205) 摘 要: 为提 ...
- 【爆料】-《西悉尼大学毕业证书》UWS一模一样原件
☞西悉尼大学毕业证书[微/Q:865121257◆WeChat:CC6669834]UC毕业证书/联系人Alice[查看点击百度快照查看][留信网学历认证&博士&硕士&海归&a ...
- tensorflow实现基于LSTM的文本分类方法
tensorflow实现基于LSTM的文本分类方法 作者:u010223750 引言 学习一段时间的tensor flow之后,想找个项目试试手,然后想起了之前在看Theano教程中的一个文本分类的实 ...
- 在TensorFlow中基于lstm构建分词系统笔记
在TensorFlow中基于lstm构建分词系统笔记(一) https://www.jianshu.com/p/ccb805b9f014 前言 我打算基于lstm构建一个分词系统,通过这个例子来学习下 ...
- 基于LSTM + keras 的诗歌生成器
最近在github 上发现了一个好玩的项目,一个基于LSTM + keras 实现的诗歌生成器,地址是:https://github.com/youyuge34/Poems_generator ...
- 深度学习|基于LSTM网络的黄金期货价格预测--转载
深度学习|基于LSTM网络的黄金期货价格预测 前些天看到一位大佬的深度学习的推文,内容很适用于实战,争得原作者转载同意后,转发给大家.之后会介绍LSTM的理论知识. 我把code先放在我github上 ...
- 基于Spark和SparkSQL的NetFlow流量的初步分析——scala语言
基于Spark和SparkSQL的NetFlow流量的初步分析--scala语言 标签: NetFlow Spark SparkSQL 本文主要是介绍如何使用Spark做一些简单的NetFlow数据的 ...
- 基于NetMQ的TLS框架NetMQ.Security的实现分析
基于NetMQ的TLS框架NetMQ.Security的实现分析 前言 介绍 交互过程 支持的协议 TLS协议 支持的算法 实现 握手 第一次握手 Client Hello 第二次握手 Server ...
- 基于UML的中职班主任工作管理系统的分析与设计--文献随笔(二)
一.基本信息 标题:基于UML的中职班主任工作管理系统的分析与设计 时间:2016 出版源:遵义航天工业学校 关键字:中职学校; 班主任工作管理; UML建模 二.研究背景 问题定义:班主任是一项特殊 ...
随机推荐
- JedisCluster API 整理
windows版redis启动服务器命令:redis-server redis.windows.conf 图表来自菜鸟教程: 列表的操作命令 序号 命令及描述 1 BLPOP key1 [key2 ] ...
- 洛谷 NOIP提高组模拟赛 Day1
传送门 ## $T1$ 一道结论题,设原来A队能力最大的是x,那么A队的选择方案就是$2^{x-1}$,B队的选择方案就是$(2^{n-x}-1)$种,因为不能不选.其中$1\leq x\leq n$ ...
- 深入浅出 Java Concurrency (40): 并发总结 part 4 性能与伸缩性[转]
性能与伸缩性 使用线程的一种说法是为了提高性能.多线程可以使程序充分利用闲置的资源,提高资源的利用率,同时能够并行处理任务,提高系统的响应性. 但是很显然,引入线程的同时也引入了系统的复杂性.另外系统 ...
- 机器学习(二)数据处理&相似/异性度量
机器学习(二)数据处理&相似/异性度量 https://woaielf.github.io/2017/03/17/dm-2/ 2017-03-17 ZOE 数据科学 机器学习/数据挖掘 ...
- dp练习集
动态规划(DP) // 以下题目来自牛客网 删括号 f[i][j][k] 表示序列s的前i个匹配序列t的前j个,序列s删除部分左括号与右括号数量差为k的情况是否可行 答案为 f[sl][tl][0] ...
- 力扣算法题—460LFU缓存
[题目描述] 设计并实现最不经常使用(LFU)缓存的数据结构.它应该支持以下操作:get 和 put. get(key) - 如果键存在于缓存中,则获取键的值(总是正数),否则返回 -1. put(k ...
- 04_springmvc注解开发
一.注解开发 需求:1.进入商品查询列表页面. 2.点击修改,进入商品修改页面,页面中显示了要修改的商品(从数据库查询),要修改的商品从数据库查询,根据商品id(主键)查询商品信息. 3.在商品修改页 ...
- BigNum模板
#include<iostream> #include<cstring> #include<iomanip> #include<algorithm> u ...
- HBase与传统关系数据库的对比分析
- Diff- Linux必学的60个命令
1.作用 diff命令用于两个文件之间的比较,并指出两者的不同,它的使用权限是所有用户. 2.格式 diff [options] 源文件 目标文件 3.[options]主要参数 -a:将所有文件当作 ...