利用MySQL原数据信息批量转换指定库数据表生成Hive建表语句
1.写出文件工具类
package ccc.utile; import java.io.*; /**
* @author ccc
* @version 1.0.0
* @ClassName WriteToFileExample.java
* @Description TODO IO流
* @ProjectName ccc
* @createTime 2021年08月07日 18:32:00
*/
public class WriteToFileExample {
/**
* 追加写入数据到指定文件
*
* @param str
* @param path
*/
public void writeFileSQL(String str, String path) {
FileWriter fw = null;
try {
File f = new File(path);
fw = new FileWriter(f, true);
} catch (IOException e) {
e.printStackTrace();
}
PrintWriter pw = new PrintWriter(fw);
pw.println(str);
pw.flush();
try {
fw.flush();
pw.close();
fw.close();
} catch (IOException e) {
e.printStackTrace();
}
} /**
* 清空文件内容
*
* @param fileName
*/
public void clearInfoForFile(String fileName) {
File file = new File(fileName);
try {
if (!file.exists()) {
file.createNewFile();
}
FileWriter fileWriter = new FileWriter(file);
fileWriter.write("");
fileWriter.flush();
fileWriter.close();
} catch (IOException e) {
e.printStackTrace();
}
} }
2.jdbc工具类:
package ccc.utile; import java.sql.*;
import java.util.Map; /**
* @author ccc
* @version 1.0.0
* @ClassName JDBCMySQL.java
* @Description TODO MySQLJDBC链接
* @ProjectName ccc
* @createTime 2021年08月06日 14:19:00
*/
public class JDBCJAVAMySQL {
public static Connection getConnection() {
//定义Connection对象
Connection conn = null;
try {
Class.forName("com.mysql.jdbc.Driver");// conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/", "root", "123456");
} catch (Exception e) {
e.printStackTrace();
}
return conn;
} private static void connection(Connection connection) {
if (connection != null) {
try {
connection.close();
} catch (SQLException throwables) {
throwables.printStackTrace();
}
}
} private static void resultSet(ResultSet resultSet) {
if (resultSet != null) {
try {
resultSet.close();
} catch (SQLException throwables) {
throwables.printStackTrace();
}
}
} private static void preparedStatement(PreparedStatement preparedStatement) {
if (preparedStatement != null) {
try {
preparedStatement.close();
} catch (SQLException throwables) {
throwables.printStackTrace();
}
}
} /*
* @Description TODO 关闭连接
* @Date 2021/7/21 22:42
* @param
* @return
*/
public static void close(Connection connection, ResultSet resultSet, PreparedStatement preparedStatement) {
connection(connection);
resultSet(resultSet);
preparedStatement(preparedStatement);
}
}
3.表属性实体类:
package ccc.enty; /**
* @author ccc
* @version 1.0.0
* @ClassName TableSchema.java
* @Description TODO
* @ProjectName ccc
* @createTime 2021年08月06日 14:58:00
*/
public class TableSchema {
private String table_name;
private String table_comment; public String getTable_name() {
return table_name;
} public void setTable_name(String table_name) {
this.table_name = table_name;
} public String getTable_comment() {
return table_comment;
} public void setTable_comment(String table_comment) {
this.table_comment = table_comment;
} @Override
public String toString() {
return "TableSchema{" +
"table_name='" + table_name + '\'' +
", table_comment='" + table_comment + '\'' +
'}';
}
}
4.表结构实体类:
package ccc.enty; /**
* @author ccc
* @version 1.0.0
* @ClassName ColumnSchema.java
* @Description TODO
* @ProjectName ccc
* @createTime 2021年08月06日 14:59:00
*/
public class ColumnSchema {
private String column_name;
private String column_comment;
private String column_type; public String getColumn_name() {
return column_name;
} public void setColumn_name(String column_name) {
this.column_name = column_name;
} public String getColumn_comment() {
return column_comment;
} public void setColumn_comment(String column_comment) {
this.column_comment = column_comment;
} public String getColumn_type() {
return column_type;
} public void setColumn_type(String column_type) {
this.column_type = column_type;
} @Override
public String toString() {
return "ColumnSchema{" +
"column_name='" + column_name + '\'' +
", column_comment='" + column_comment + '\'' +
", column_type='" + column_type + '\'' +
'}';
}
}
5.启动类:
package ccc.contorller; import ccc.enty.ColumnSchema;
import ccc.enty.TableSchema;
import ccc.utile.JDBCJAVAMySQL;
import ccc.utile.WriteToFileExample; import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.util.ArrayList;
import java.util.List; /** 需关闭连接
* @author ccc
* @version 1.0.0
* @ClassName BatchMySQL2HIVE.java
* @Description TODO 通过MySQL原数据信息,生成HIVE建表语句
* @ProjectName ccc
* @createTime 2021年08月06日 14:52:00
*/
public class BatchMySQL2HIVE { /**
* 获取表信息
*
* @return
*/
public static List<TableSchema> getTable_schema(String databases) {
List<TableSchema> list = new ArrayList<TableSchema>();
String sql = "SELECT a.table_name,a.table_comment FROM information_schema.`TABLES` a where a.table_schema=" + "\"" + databases + "\"";
PreparedStatement ps = null;
ResultSet resultSet = null;
Connection connection = JDBCJAVAMySQL.getConnection();
try {
ps = connection.prepareStatement(sql);
resultSet = ps.executeQuery();
while (resultSet.next()) {
TableSchema a = new TableSchema();
a.setTable_name(resultSet.getString("table_name"));
a.setTable_comment(resultSet.getString("table_comment"));
list.add(a);
}
} catch (SQLException throwables) {
throwables.printStackTrace();
} finally {
JDBCJAVAMySQL.close(connection, resultSet, ps);
}
return list;
} /**
* 获取表结构信息
*
* @return
*/
public static List<ColumnSchema> getColumn_schema(String database, String table_name) {
List<ColumnSchema> list = new ArrayList<ColumnSchema>();
String c = "SELECT a.column_name,a.column_comment,a.data_type FROM information_schema.`COLUMNS` a where a.table_schema=" + "\"" + database + "\" ";
String b = " and a.table_name=" + "\"" + table_name + "\"";
String sql = c + b;
System.out.println(sql);
Connection connection = JDBCJAVAMySQL.getConnection();
PreparedStatement ps = null;
ResultSet resultSet = null;
try {
ps = connection.prepareStatement(sql);
resultSet = ps.executeQuery();
while (resultSet.next()) {
ColumnSchema a = new ColumnSchema();
a.setColumn_comment(resultSet.getString("column_comment"));
a.setColumn_name(resultSet.getString("column_name"));
a.setColumn_type(resultSet.getString("data_type"));
list.add(a);
}
} catch (SQLException throwables) {
throwables.printStackTrace();
}
return list;
} /**
* 生成表结构
*
* @param j
* @return
*/
public static String createTable(String database, int j) {
StringBuffer sb = new StringBuffer();
List<TableSchema> table_schema = getTable_schema(database);
List<ColumnSchema> column_schema = getColumn_schema(database, table_schema.get(j).getTable_name());
sb.append("--" + getTable_comment(table_schema.get(j).getTable_comment(), table_schema.get(j).getTable_name()) + ":" + table_schema.get(j).getTable_name() + "\n");
sb.append("CREATE TABLE IF NOT EXISTS " + table_schema.get(j).getTable_name() + "(" + "\n");
int f = 0;
for (int i = 0; i < column_schema.size(); i++) {
//判断是否是最后一个字段,如果是则不加都号
if (f == column_schema.size() - 1) {
sb.append(" " + tranColumn2xx(column_schema.get(i).getColumn_name()) + " " + getColumn_type(column_schema.get(i).getColumn_type()) + " COMMENT " + getColumn_Comment(column_schema.get(i).getColumn_comment()) + "\n");
} else {
sb.append(" " + tranColumn2xx(column_schema.get(i).getColumn_name()) + " " + getColumn_type(column_schema.get(i).getColumn_type()) + " COMMENT " + getColumn_Comment(column_schema.get(i).getColumn_comment()) + "," + "\n");
}
f++;
}
sb.append(") COMMENT " + "\"" + getTable_comment(table_schema.get(j).getTable_comment(), table_schema.get(j).getTable_name()) + "\"" + ";" + "\n");
return sb.toString();
} /**
* 填充字段注释
*
* @param comment
* @return
*/
public static String getColumn_Comment(String comment) {
if (comment == null || comment.equals("")) {
return "\"\"";
} else {
return "\"" + comment + "\"";
}
} /**
* 填充表注释
*
* @param comment
* @param table_name
* @return
*/
public static String getTable_comment(String comment, String table_name) {
if (comment == null || comment.equals("")) {
return table_name;
} else {
return comment;
}
} /**
* 匹配类型
*
* @param column_type
* @return
*/
public static String getColumn_type(String column_type) {
if ("int".equals(column_type)) {
return "BIGINT";
} else if ("tinyint".equals(column_type)) {
return "BIGINT";
} else if ("bigint".equals(column_type)) {
return "BIGINT";
} else if ("smallint".equals(column_type)) {
return "BIGINT";
} else if ("mediumint".equals(column_type)) {
return "BIGINT";
} else if ("float".equals(column_type)) {
return "DOUBLE";
} else if ("double".equals(column_type)) {
return "DOUBLE";
} else if ("decimal".equals(column_type)) {
return "STRING";
} else if ("numeric".equals(column_type)) {
return "STRING";
} else if ("bit".equals(column_type)) {
return "STRING";
} else if ("char".equals(column_type)) {
return "STRING";
} else if ("varchar".equals(column_type)) {
return "STRING";
} else if ("blob".equals(column_type)) {
return "STRING";
} else if ("mediumblob".equals(column_type)) {
return "STRING";
} else if ("longblob".equals(column_type)) {
return "STRING";
} else if ("tinytext".equals(column_type)) {
return "STRING";
} else if ("mediumtext".equals(column_type)) {
return "STRING";
} else if ("longtext".equals(column_type)) {
return "STRING";
} else if ("binary".equals(column_type)) {
return "STRING";
} else if ("varbinary".equals(column_type)) {
return "STRING";
} else if ("time".equals(column_type)) {
return "STRING";
} else if ("datetime".equals(column_type)) {
return "STRING";
} else if ("timestemp".equals(column_type)) {
return "STRING";
} else if ("year".equals(column_type)) {
return "STRING";
} else if ("date".equals(column_type)) {
return "STRING";
} else if ("text".equals(column_type)) {
return "STRING";
}else if ("longtext".equals(column_type)) {
return "STRING";
} else {
return "STRING";
}
} /**
* 字段转小写
*
* @param column_name 传入原始字段
* @return 返回转换字段
*/
public static String tranColumn2xx(String column_name) {
return column_name.toLowerCase();
} /**
* 批量启动
*
* @param database 数据库名称
* @param path 写入文件路径
*/
public static void start(String database, String path) {
List<TableSchema> table_schema = getTable_schema(database);
WriteToFileExample writeToFileExample = new WriteToFileExample();
writeToFileExample.clearInfoForFile(path);
int f = 0;
for (int i = 0; i < table_schema.size(); i++) {
String table = createTable(database, i);
System.out.println(table);
writeToFileExample.writeFileSQL(table, path);
f++;
}
System.out.println("共记录:" + f + "条数据!");
} public static void main(String[] args) {
start("CCC", "mysql2HIVE.sql");
}
}
利用MySQL原数据信息批量转换指定库数据表生成Hive建表语句的更多相关文章
- mysql根据查询结果批量更新多条数据(插入或更新)
mysql根据查询结果批量更新多条数据(插入或更新) 1.1 前言 mysql根据查询结果执行批量更新或插入时经常会遇到1093的错误问题.基本上批量插入或新增都会涉及到子查询,mysql是建议不要对 ...
- MySQL的表分区详解 - 查看分区数据量,查看全库数据量----转http://blog.csdn.net/xj626852095/article/details/51245844
查看分区数据量,查看全库数据量 USE information_schema; SELECT PARTITION_NAME,TABLE_ROWS FROM INFORMATION_SCHEMA.PAR ...
- Mysql元数据生成Hive建表语句注释脚本
在将数据从Mysql 等其他关系型数据库 抽取到Hive 表中时,需要同步mysql表中的注释,以下脚本可以生成hive表字段注释修改语句. 注:其他关系型数据库如:oracle 可以通过相同的思路, ...
- [Hive_3] Hive 建表指定分隔符
0. 说明 Hive 建表示例及指定分隔符 1. Hive 建表 Demo 在 Hive 中输入以下命令创建表 user2 create table users2 (id int, name stri ...
- hive建表没使用LZO存储格式,可是数据是LZO格式时遇到的问题
今天微博大数据平台发邮件来说.他们有一个hql执行失败.可是从gateway上面的日志看不出来是什么原因导致的,我帮忙看了一下.最后找到了问题的解决办法,下面是分析过程: 1.执行失败的hql: IN ...
- hive建表与数据的导入导出
建表: create EXTERNAL table tabtext(IMSI string,MDN string,MEID string,NAI string,DestinationIP string ...
- ABAP 动态备份自建表数据到新表(自建表有数据的情况下要改字段长度或者其他)
当abaper开发好一个程序给用户使用一段时间后,发现某个字段的长度需要修改,但数据库表中已经存在很多数据,冒然直接改表字段可能会导致数据丢失,这种问题的后果可能非常严重. 所以我想到先复制出一个新表 ...
- mysql存储过程命令行批量插入N条数据命令
原文:http://blog.csdn.net/tomcat_2014/article/details/53377924 delimiter $$ create procedure myproc () ...
- SqlServer与MySql 系统表查询自建表数据
SqlServer: SELECT * FROM sys.sysobjects WHERE type='U' ORDER BY name SELECT * FROM sys.syscolumns WH ...
随机推荐
- Linux安装及管理程序
一,常见的软件包封装类型 二.RPM包管理工具 三.查询RPM软件包信息 四.安装.升级.卸载RPM软件包 五.解决软件包依赖关系的方法 六.源代码编译 七.安装yum源仓库 一,常见的软件包封装类型 ...
- vim安装及个性化配置
1.安装vim,并且vim命令的别名设置为vi yum install vim -y (如果不能识别vim命令,需要先安装vim) vi /etc/bashrc 或者 vi ~/.bashrc 在最后 ...
- Netty 框架学习 —— 预置的 ChannelHandler 和编解码器
Netty 为许多提供了许多预置的编解码器和处理器,几乎可以开箱即用,减少了在烦琐事务上话费的时间和精力 空闲的连接和超时 检测空闲连接以及超时对于释放资源来说至关重要,Netty 特地为它提供了几个 ...
- 入门Kubernetes - 滚动升级/回滚
一.前言 上一篇文章中对yaml文件格式进行了解,并对k8s中各种主要资源通过yaml创建时的定义模板.接来下就进一步学习k8s的各种特点.并应用在示例中. 接下来先实现.Net Core Api程序 ...
- webpack(2)webpack核心概念
前言 本质上,webpack 是一个用于现代 JavaScript 应用程序的 静态模块打包工具.当 webpack 处理应用程序时,它会在内部构建一个 依赖图(dependency graph) ...
- elementui——表格的相同内容单元格合并
在今天工作中遇到了相同单元格需要合并的一个需求,实现记录如下. 实现效果: 任务要求: 对表中体系这一列相同的体系进行合并. 思路:定义一个空数组:[]定义一个变量:0遍历数据如果有相同数据 在空数组 ...
- 学习django的日子
bilibii这个网站是个学习者网站,里面有很多学习视频
- 架构之:REST和RESTful
目录 简介 REST REST和RESTful API REST架构的基本原则 Uniform interface统一的接口 Client–server 客户端和服务器端独立 Stateless无状态 ...
- 『心善渊』Selenium3.0基础 — 30、UI自动化测试之POM设计模式
目录 (一)POM模式介绍 1.什么是POM介绍 2.为什么要使用POM模式 3.POM的优势 4.POM模式封装思路 (1)POM模式将页面分成三层 (2)POM模式的核心要素(重点) (3)总结 ...
- Js中的防抖与节流函数
1.何为防抖与节流函数呢? 1.防抖(debounce):通过setTimeout方式,在一定的时间间隔内,将多次触发的事件转化为一次触发.也就是说当一个用户一直触发这个函数,且每次触发函数的间隔小于 ...