近期做数据迁移,采用nodejs框架,数据库为mysql。作为一枚菜鸟,在编码过程中,遇到众多奇葩问题,感谢民少给予的支持。

由于旧数据库中的数据,在之前设计中存在众多不合理的情况,因此在数据迁移中,需要对旧数据库中的相关数据做众多的规范性处理:

根据新系统的数据结构要求,存在如下问题:

1、进行无效数据筛选过滤,并进行记录。

2、同时存在外键关系也需要进行相应迁移。

3、实现数据库的自动化转移处理

4、记录无效及验证不通过数据,以及相关的原因。

5、旧数据中Id为不规范的ID,需要进行。

完成分析后,绝对按下面流程进行数据迁移:

1、在经历了对新旧数据库结构的分析后,进行相应的旧数据库中数据的导出。

2、根据具体新数据关系,先进行不存在外键关系的基础数据导入

3、完成基础数据的导入后,再进行相应的存在关联关系的数据进行导入处理。

在导入过程中,需要对基础数据进行导入成功后,方可进行关联数据的导入,满足外键关系的关联。

预先设计2套,具体方案如下:

一、先将所有数据导出为具体的data.js文件,存储在本地的文件中,读取这些数据文件进行迁移处理。

二、根据数据关系,通过将导出的数据进行缓存,读取缓存进行数据直接迁移处理。

采用nodegrass+mysql+underscore+eventproxy等相应组建进行整个数据导入的处理。

nodegrass进行数据模拟请求操作,

mysql进行数据库数据的读取处理,

underscore为集合处理工具类,

eventproxy进行嵌套回调函数工具。

1、主体程序代码如下:

function execExport(i) {
var fileName = modules[i];
var filePath = path.join(dir, fileName);
require(filePath).export(connection, exportComplete(i, new Date().getTime()), ' limit 10;');
} function exportComplete(i, start) {
return function () {
var fileName = modules[i];
var filePath = path.join(dir, fileName);
console.log('%s导出完成,行数: %s, 耗时: %s 秒', filePath, $.size(require(filePath).rows), parseInt((new Date().getTime() - start) / 1000, 10));
if ((i + 1) < modules.length)
return execExport(i + 1);
console.log('______________完成所有导出____________');
execImportBase(); };
} execExport(0);

通过调用execExport(0);,以递归的方式,进行旧数据库数据的导出,记录数据记录以及导出耗时情况。

在导出数据结束后,通过execImportBase()方法,进行数据的导入操作,由于外键关联的原因,所以先进行基础数据导入。

2、具体代码如下:

nodegrass模拟请求代码:

function execImportBase() {
ajax.post('/user/login', {
name: '××××××',
pwd: '××××××',
rememberPwd: true
}, function (resp, headers) {
if (resp.success) {
console.log("登录成功,开始数据导入。");
require('./server/dict').import();
}
else {
console.log("登录失败。");
}
});
}

2、新旧数据库Id标识字段的关联处理代码:

exports.import = function () {
var ep = new EP();
ep.after('importAccount', $.size(exports.rows), function () {
console.log("end Import Account");
write.writeFile(fails, 'Account');
require('./shop').import();
});
$.each(exports.rows, function (d) {
ajax.post('/user/register', d, function (resp) {
if (!resp.success) {
d.resp = resp;
fails.push(d);
} else {
d.newId = resp.data;
}
ep.emit('importAccount');
});
});
};

数据中保存成功后,将新数据的Id字段返回,让引用的外键关联表对应的引用字段,使用newId进行绑定。 由此完成数据外键关系的迁移。

3、mysql多语句执行的代码:

var connection = mysql.createConnection({
host: '192.168.1.110',
user: 'root',
password: '123456',
database: 'data',
multipleStatements: true
});
multipleStatements: true:为对应的多语句同时执行开关。

4、eventproxy嵌套回调处理代码:

ep.after('importAccount', $.size(exports.rows), function () {
console.log("end Import Account");
write.writeFile(fails, 'Account');
require('./shop').import();
});
$.each(exports.rows, function (d) {
ajax.post('/user/register', d, function (resp) {
if (!resp.success) {
d.resp = resp;
fails.push(d);
} else {
d.newId = resp.data;
}
ep.emit('importAccount');
});
});

使用eventproxy进行循环的请求发送,为外键表关联进行相应数据的处理准备。

在请求完成的同时,根据返回结果,通过fails.push()进行错误数据的记录,以及newId的处理。

将错误数据及结果进行保存,方便数据的筛选过滤,避免数据的非正常丢失。

5、输出相应错误数据代码:

var fs = require('fs');
var path = require('path');
var $ = require('underscore'); var dir = path.join(__dirname, 'failds'); //打印错误数据
exports.writeFile = function (data, name) {
fs.writeFile(path.join(dir, name + '.js'), JSON.stringify(data), function (err) {
if (err)
return console.log(err);
if ($.size(data) > 0)
console.log('导入' + name + '出现 %s 条错误数据!', $.size(data));
});
};

简单的小例子,本人菜鸟一枚,如果有不足之处,还请指正。

关于本例子的性能及bug情况,暂时未进行实际测试。待后期再相应的整理。

nodejs简单数据迁移demo的更多相关文章

  1. 用sql从一张表更新数据到另外一张表(多表数据迁移)

    update TBL_1 A, TBL_2 B, TBL_3 Cset a.email=c.email_addrwhere a.user_id=b.user_id and b.un_id=c.un_i ...

  2. 一次PostgreSql数据迁移,使用nodejs来完成

    2014-02-08 XX开放平台不允许使用站外的服务器了,可是我们的app都在站外,数据库也在站外,全都要求迁移到其云主机上(坑爹啊).我们在其云主机上仅有有限的资源,而且也有在运行中的数据库,要做 ...

  3. 从MySQL到Hive,数据迁移就这么简单

    使用Sqoop能够极大简化MySQL数据迁移至Hive之流程,并降低Hadoop处理分析任务时的难度. 先决条件:安装并运行有Sqoop与Hive的Hadoop环境.为了加快处理速度,我们还将使用Cl ...

  4. 记一次简单的Oracle离线数据迁移至TiDB过程

    背景 最近在支持一个从Oracle转TiDB的项目,为方便应用端兼容性测试需要把Oracle测试环境的库表结构和数据同步到TiDB中,由于数据量并不大,所以怎么方便怎么来,这里使用CSV导出导入的方式 ...

  5. 【SQLServer】记一次数据迁移-标识重复的简单处理

    汇总篇:http://www.cnblogs.com/dunitian/p/4822808.html#tsql 今天在数据迁移的时候因为手贱遇到一个坑爹问题,发来大家乐乐,也传授新手点经验 迁移惯用就 ...

  6. EF Code First:实体映射,数据迁移,重构(1)

    一.前言 经过EF的<第一篇>,我们已经把数据访问层基本搭建起来了,但并没有涉及实体关系.实体关系对于一个数据库系统来说至关重要,而且EF的各个实体之间的联系,实体之间的协作,联合查询等也 ...

  7. Kettle进行数据迁移(ETL)

    由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中.此过程可能涉及到表结构不一致.大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取.清洗等等工作.部分复杂的工作需要 ...

  8. [转载] 使用Kettle进行数据迁移(ETL)

    由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中.此过程可能涉及到表结构不一致.大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取.清洗等等工作.部分复杂的工作需要 ...

  9. 数据迁移实战:基于Kettle的Mysql到DB2的数据迁移

    From:https://my.oschina.net/simpleton/blog/525675 一.什么是ETL ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数 ...

随机推荐

  1. Hbase多列范围查找(效率)

    Hbase索引表的结构 Hbase Rowkey 设计 Hbase Filter Hbase二级索引 Hbase索引表的结构 在HBase中,表格的Rowkey按照字典排序,Region按照RowKe ...

  2. java 集合框架(十六)Map

    一.概述 Map是一个包含键值对的集合,一个map不能有重复的键(key),而且每个键至多只能对应一个值.Map同Collection一样,它的所有通用实现都会提供一个转换器构造函数,接收一个Map类 ...

  3. Jpa中设置OneToMany插入报异常解决办法

    在Jpa中如果设置@OneToMany,但使用的时候,如果没有赋值,会报异常出现,这时只需要实例化一个空数组即可, 但类型一定要对应: 实例如下: newField.setxxxxxList(new ...

  4. 使用ffserver实现转发实时流媒体(摄像头捕获)

    本系统为ubuntu 10.04LTS 说明1:本实验在本机成功测试通过: 说明2:本实验仅仅测试了视频流,未测试音频流. 1.配置ffserver.conf -------------------- ...

  5. 表格布局----基于bootstrap样式 布局

    在实际开发中,我们通过菜鸟教程复制的表格往往不能满足我们的开发需求,样式很难看,而且不能自适应,尤其是需要到处Excel的样式,感觉非常糟糕,这次我就写了一个表单,不足之处,希望大神们多多指教: 代码 ...

  6. Exynos4412从SD卡启动的简单网络文件系统制作

    Exynos4412从SD卡启动的简单网络文件系统制作 1. 简介 嵌入式系统能够在开发板上正常运行,需要先进行系统配置,一个完整的嵌入式系统应该包含的几个部分::uboot,kernel,rootf ...

  7. CF Educational Round 23 F.MEX Queries

    写了3小时 = =.这两天堕落了,昨天也刷了一晚上hihocoder比赛,还爆了零.之后得节制点了,好好准备考研.. 首先很容易想到 压缩数据 + 线段树 然后对于Pushdown真很难写..需要牵涉 ...

  8. pat1051-1060

    1051 自己写的非常麻烦 http://blog.csdn.net/biaobiaoqi/article/details/9338397 的算法比较好,我的就贴下吧,主要对入栈出栈不够理解 #inc ...

  9. 初识SSO与JWT

    以前在学校做项目的时候,登录注销,权限验证这些事情,都是交给框架来做的,每次都是把这个架子拿到项目中去,也没有真正思考过它的过程,总觉的这些都是十分简单的逻辑. 然而来公司工作之后,慢慢觉得登录和权限 ...

  10. 关于工作中Git相关的总结

    来公司一周多,主要是在熟悉各种环境和流程,而作为研发来讲,git的使用也是必不可少的.以前使用方式单一,几个人对着master,pull和push,来了之后发现其实在日常的开发中,git可以很方便的帮 ...