Hive的存储和MapReduce处理——数据清洗(Part2)
日期:2019.11.14
博客期:116
星期四
基本的处理类
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import java.util.ArrayList;
import java.util.List; import com.hive.basic.Bean; public class SqlForBean {
public static String databasename = "hive";//数据库名称
public static String username = "root";//登录数据库的用户的用户名
public static String password = "nssxs2489615648";//登录数据库的用户的密码
//插入方法
public static void insert(Bean bean)
{
try {
Class.forName("com.mysql.jdbc.Driver").newInstance(); //MYSQL驱动
Connection conn = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/"+databasename, username, password); //链接本地MYSQL
String sql = "insert into result values (";
sql += "'"+bean.getIp()+"',";
sql += "'"+bean.getTime()+"',";
sql += "'"+bean.getDay()+"',";
sql += bean.getTraffic()+",";
sql += "'"+bean.getType()+"',";
sql += "'"+bean.getId()+"')"; PreparedStatement pstmt = (PreparedStatement) conn.prepareStatement(sql);
pstmt.executeUpdate();
pstmt.close(); conn.close();
} catch (SQLException e) {
e.printStackTrace();
} catch (Exception e) {
e.printStackTrace();
}
}
public static void insert(List <Bean> list_bean)
{
int size = list_bean.size();
for(int i=0;i<size;++i)
{
SqlForBean.insert(list_bean.get(i));
}
}
public static List<Bean> getData(){
List <Bean> list = new ArrayList<Bean>(); try
{
Class.forName("com.mysql.jdbc.Driver").newInstance(); //MYSQL驱动
Connection conn = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/"+databasename, username, password); //链接本地MYSQL
String sql = " select * from result";
Statement stmt = conn.createStatement();
ResultSet rs = stmt.executeQuery(sql);
while(rs.next())
{
String ip_s = rs.getString("ip");
String time_s = rs.getString("time");
String day_s = rs.getString("day");
int traffic_s = rs.getInt("traffic");
String type_s = rs.getString("type");
String id_s = rs.getString("id");
Bean bean = new Bean(ip_s,time_s,day_s,traffic_s,type_s,id_s);
list.add(bean);
}
}catch(ClassNotFoundException e){
e.printStackTrace();
}catch(IllegalAccessException e){
e.printStackTrace();
}catch(InstantiationException e){
e.printStackTrace();
}catch(SQLException e){
e.printStackTrace();
} return list;
}
}
SqlForBean
Hive的存储和MapReduce处理——数据清洗(Part2)的更多相关文章
- Hive的存储和MapReduce处理——数据清洗
日期:2019.11.13 博客期:115 星期三 Result文件数据说明: Ip:106.39.41.166,(城市) Date:10/Nov/2016:00:01:02 +0800,(日期) D ...
- Hive的存储和MapReduce处理——数据清洗(Part3)
日期:2019.11.17 博客期:118 星期日 这几天在写程序的时候虚拟机崩了,无语~所以重新从最初的状态开始配环境,重新整理之前的所有代码程序.
- 升级版:深入浅出Hadoop实战开发(云存储、MapReduce、HBase实战微博、Hive应用、Storm应用)
Hadoop是一个分布式系统基础架构,由Apache基金会开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储.Hadoop实现了一个分布式文件系 ...
- Hive| 压缩| 存储| 调优
Hadoop压缩配置 修改Hadoop集群具有Snappy压缩方式: 查看hadoop支持的压缩方式 [kris@hadoop101 datas]$ hadoop checknative 将编译好的支 ...
- spark2.1:读取hive中存储的多元组(string,double)失败
这两天和同事一起在想着如何把一个表的记录减少,表记录包含了:objectid(主小区信息),gridid(归属栅格),height(高度),rsrp(主小区rsrp),n_objectid(邻区),n ...
- hive优化之调整mapreduce数目
一.调整hive作业中的map数 1.通常情况下,作业会通过input的目录产生一个或者多个map任务.主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为1 ...
- Hive快捷查询:不启用Mapreduce job启用Fetch task
启用MapReduce Job是会消耗系统开销的.对于这个问题,从Hive0.10.0版本开始,对于简单的不需要聚合的类似SELECT <col> from <table> L ...
- Hive基础之Hive的存储类型
Hive常用的存储类型有: 1.TextFile: Hive默认的存储类型:文件大占用空间大,未压缩,查询慢: 2.Sequence File:将属于以<KEY,VALUE>的形式序列化到 ...
- HIve数据存储
表 Table 内部表 Partition 分区表 External Table 外部表 Bucket Table 桶表 内部表 分区表 parttion对应于数据库中的Partition列的密集索引 ...
随机推荐
- 吴裕雄 PYTHON 人工智能——基于MASK_RCNN目标检测(4)
import os import sys import random import math import re import time import numpy as np import tenso ...
- 1.1、webrtc的历史和现状
1.1.webrtc的历史和现状 本书目录 温馨提示:本书的内容,将按照顺序一一展开,上篇文章阐述本书的诞生的原因,推荐阅读方式等. 如果你还没有阅读上一篇文章(必读前言—— 作者的独白),我建议返回 ...
- NLP开源工具
最近有人问我几次NLP有哪些开源工具,这里做个笔记.
- vue生命周期中update的具体用法
在页面上 改变元数据data中数据,并且导致页面重新渲染时,才会进入update周期
- 计算机二级-C语言-程序填空题-190115记录-fprintf()函数和fscanf()函数的使用。
//给定程序,函数fun的功能是:将自然数1~10以及它们的平方根写到名为myflie3.txt的文本文件中,然后再顺序读出显示在屏幕上. //重难点:fprintf()函数和fscanf()函数的使 ...
- 开放应用模型操作指南(一)| 云服务一键接入 OAM 体系
作者 | 邓洪超 阿里云容器平台软件工程师 导读:Open Application Model(OAM)是阿里云联合微软等国际顶级技术团队联合发布的开放应用模型技术.旨在通过全新的应用定义.运维.分 ...
- Cisco AP-Sniffer模式空口抓包
第一步:WLC/AP侧 配置AP为sniffer模式: 配置提交后,AP会重启,并且将不能发出SSID为clients提供服务. 第二步:一旦AP重新加入WLC,配置AP抓取的信道和抓取后的数据包发 ...
- IDEA中常用优化设置
1.设置鼠标悬浮提示 Editor->General 这里要勾选下,后面设置的是延迟时间 默认半秒:设置后,我们鼠标移动到类上看看: 2.显示方法分隔符 Editor->General - ...
- ES查询不重复的数据
GET ana-apk/_search #查询不重复的mac地址{ "size": 10, "aggs": { "MAC": { ...
- ip命令规范
从centos7以前我们一直使用ifconfig命令来执行网络相关的任务,比如检查和配置网卡信息,但是ifconfig已经不再被维护,并且在最近版本的Linux中被废除了!ifconfig命令已经被i ...