一、概念
使用BlukLoad方式利用Hbase的数据信息是 按照特点格式存储在HDFS里的特性,直接在HDFS中生成持久化的Hfile数据格式文件,然后完成巨量数据快速入库的操作,配合MapReduce完成这样的操作。
二、优点
1、不占用Region资源
2、不会产生巨量的写入I/O、
3、只需要较少的CPU和网络资源
三、实现原理
通过一个MapReduce Job来实现的,通过job直接生成一个Hbase的内部HFile格式文件 ,用来形成一个特殊的Hbase数据表,然后直接将数据文件加载到运行的集群中,与使用Hbase API相比,使用BulkLoad导入数据占用更少的CPU和网络资源
 
四、BulkLoad过程主要包括三部分:
1、从数据源(通常是文本文件或其他的数据库)提取数据并上传到HDFS,抽取数据到HDFS和Hbase。
2、利用MapReduce作业处理事先准备的数据,并且大多数情况下需要我们自己编写Map函数,而Reduce函数不需要我们考虑,由Hbase提供。
      该作业需要使用rowkey(行键)作为输出key;keyvalue、put或者delete作为输出value。MapReduce作业需要使用HFileOutputFormat2
      来生成Hbase数据文件。为了有效的导入数据,需要配置HFileOutputFormat2使得每一个输出文件都在一个合适的区域中。为达到这个目的,
      MapReduce作业会使用Hadoop的TotalOrderPartitioner类根据表的key值将输出分割开来。HFileOutputFormat2的方法configureIncrementalLoad()
      会自动的完成上面的工作。
3、告诉RegionServers数据的位置并导入数据,通常使用LoadIncrementalHFiles(更为人所知是completebulkload工具),将文件在HDFS上的位置传递给它,它会利用RegionServer将数据导入到相应的区域
 

五、实践操作(kerberos认证)

1、创建表

create 'hfiletable','fm1','fm2'

2、数据准备

**
* @Author: xiaolaotou
* @Date: 2018/11/29
*/
public class CreateData {
public static void main(String[] args) throws IOException, InterruptedException {
    StringBuffer str = new StringBuffer();
    String rowkey="key";
    String family1="fm1:name";
    String family2="fm2:age";
    String value="za";
    Integer age=12;
    for(int i=1;i<5000;i++) {
        str=str.append(rowkey + i + "\t" + family1 + "\t" + value+i + "\n" + rowkey+i + "\t" + family2 + "\t" +i+"\n");
    System.out.println(str);
}
    //写入本地文件
    String fileTxt="/mnt/sata1/yang/BulkLoadHbase/data.txt";
    File file=new File(fileTxt);
    if(!file.getParentFile().exists()){
        file.getParentFile().mkdirs();
    }
    if(!file.exists()){
        file.createNewFile();
        FileWriter fw=new FileWriter(file,false);
        BufferedWriter bw=new BufferedWriter(fw);
        System.out.println("写入完成");
        bw.write(String.valueOf(str));
        bw.flush();
        bw.close();
        fw.close();
    }
    PutDataToHdfs();
}
//将数据文件上传到hdfs
public static void PutDataToHdfs() throws IOException, InterruptedException {
    Configuration conf = new Configuration();
    FileSystem fs = org.apache.hadoop.fs.FileSystem.get(URI.create("hdfs://172.20.237.104:9000"),conf,"root");
    //上传文件到hdfs
    fs.copyFromLocalFile(new Path("/mnt/sata1/yang/BulkLoadHbase/data.txt"),new Path("/yang"));
    }
}
注意:在hdfs开启kerberos认证这个将数据上传到hdfs不能用,采用生成数据手动上传

3、使用Mapreduce将数据通过Bulkload入到hbase表中

/**
* @Author: xiaolaotou
* @Date: 2018/11/27
* 使用MapReduce生成HFile文件
*/
public class BulkLoadMapper extends Mapper<LongWritable,Text,ImmutableBytesWritable,Put> {
    public void map(LongWritable key, Text value, Mapper.Context context) throws IOException, InterruptedException {
        String[] valueStrSplit = value.toString().split("\t");//划分一行数据
        String hkey = valueStrSplit[0];//rowkey
        String family = valueStrSplit[1].split(":")[0];//列族
        String column = valueStrSplit[1].split(":")[1];//字段
        String hvalue = valueStrSplit[2];//值
        final byte[] rowKey = Bytes.toBytes(hkey);
        final ImmutableBytesWritable HKey = new ImmutableBytesWritable(rowKey);
        Put HPut = new Put(rowKey);
        byte[] cell = Bytes.toBytes(hvalue);
        HPut.add(Bytes.toBytes(family), Bytes.toBytes(column), cell);
        context.write(HKey, HPut);
    }
 
/**
* @Author: xiaolaotou
* @Date: 2018/11/27
*/
public class BulkLoadJob {
            static Logger logger = LoggerFactory.getLogger(BulkLoadJob.class);
            private static Configuration conf = null;
 
static {
       Configuration HBASE_CONFIG = new Configuration();
        HBASE_CONFIG.set("hbase.zookeeper.quorum", "172.20.237.104,172.20.237.105,172.20.237.106");
        HBASE_CONFIG.set("hbase.master.kerberos.principal", "hbase/_HOST@TDH");
        HBASE_CONFIG.set("hbase.regionserver.kerberos.principal", "hbase/_HOST@TDH");
        HBASE_CONFIG.set("hbase.security.authentication", "kerberos");
        HBASE_CONFIG.set("zookeeper.znode.parent", "/hyperbase1");
        HBASE_CONFIG.set("hadoop.security.authentication", "kerberos");
        conf = HBaseConfiguration.create(HBASE_CONFIG);
}
 
public static void main(String[] args) throws Exception {
        UserGroupInformation.setConfiguration(conf);
        UserGroupInformation.loginUserFromKeytab("hbase/gz237-104", "/etc/hyperbase1/conf/hyperbase.keytab");
        String inputPath = "/yang/data.txt";
        String outputPath = "/yang/BulkLoad";
        Job job = Job.getInstance(conf, "BulkLoadToHbase");
        job.setJarByClass(BulkLoadJob.class);
        job.setMapperClass(BulkLoadMapper.class);
        job.setMapOutputKeyClass(ImmutableBytesWritable.class);
        job.setMapOutputValueClass(Put.class);
        //拒绝推测式task的运行
        job.setSpeculativeExecution(false);
        job.setReduceSpeculativeExecution(false);
        //in/out format
        job.setInputFormatClass(TextInputFormat.class);
        job.setOutputFormatClass(HFileOutputFormat2.class);
        //指定来源
        FileInputFormat.addInputPath(job, new Path(inputPath));
        //指定输出地
        FileOutputFormat.setOutputPath(job, new Path(outputPath));
 
        HTable table = new HTable(conf, "hfiletable");
        HFileOutputFormat2.configureIncrementalLoad(job, table);
 
        boolean b = job.waitForCompletion(true);
if (b) {
        FsShell shell = new FsShell(conf);
try {
        shell.run(new String[]{"-chmod", "-R", "777", outputPath});
} catch (Exception e) {
        logger.error("不能改变文件权限 ", e);
        throw new IOException(e);
}
        //加载到hbase表
        LoadIncrementalHFiles loader = new LoadIncrementalHFiles(conf);
        loader.doBulkLoad(new Path(outputPath), table);
        System.out.println("执行成功");
} else {
        System.out.println("执行失败");
        logger.error("加载失败!");
        System.exit(1);
    }
    }
}
 
 
过程中遇到的报错:

解决:protobuf-java-2.5.0.jar因为包冲突,由于我创建project时,结构为父模块和子模块,可能在导包的时候,被其他子模块的包给冲突了。因此,我新建了一个project重新打包到linux运行成功。

通过BulkLoad快速将海量数据导入到Hbase(TDH,kerberos认证)的更多相关文章

  1. 在Spark上通过BulkLoad快速将海量数据导入到Hbase

    我们在<通过BulkLoad快速将海量数据导入到Hbase[Hadoop篇]>文中介绍了一种快速将海量数据导入Hbase的一种方法,而本文将介绍如何在Spark上使用Scala编写快速导入 ...

  2. 通过BulkLoad快速将海量数据导入到Hbase

    在第一次建立Hbase表的时候,我们可能需要往里面一次性导入大量的初始化数据.我们很自然地想到将数据一条条插入到Hbase中,或者通过MR方式等. 但是这些方式不是慢就是在导入的过程的占用Region ...

  3. sqoop将关系型的数据库得数据导入到hbase中

    1.sqoop将关系数据库导入到hbase的参数说明

  4. BulkLoad加载本地文件到HBase表

    BulkLoad加载文件到HBase表 1.功能 将本地数据导入到HBase中 2.原理 BulkLoad会将tsv/csv格式的文件编程hfile文件,然后再进行数据的导入,这样可以避免大量数据导入 ...

  5. HBase(三): Azure HDInsigt HBase表数据导入本地HBase

    目录: hdfs 命令操作本地 hbase Azure HDInsight HBase表数据导入本地 hbase hdfs命令操作本地hbase: 参见  HDP2.4安装(五):集群及组件安装 , ...

  6. HBase结合MapReduce批量导入(HDFS中的数据导入到HBase)

    HBase结合MapReduce批量导入 package hbase; import java.text.SimpleDateFormat; import java.util.Date; import ...

  7. 干货 | 快速实现数据导入及简单DCS的实现

    干货 | 快速实现数据导入及简单DCS的实现 原创: 赵琦 京东云开发者社区  4月18日 对于多数用户而言,在利用云计算的大数据服务时首先要面临的一个问题就是如何将已有存量数据快捷的导入到大数据仓库 ...

  8. 使用Spark的newAPIHadoopRDD接口访问有kerberos认证的hbase

    使用newAPIHadoopRDD接口访问hbase数据,网上有很多可以参考的例子,但是由于环境使用了kerberos安全加固,spark使用有kerberos认证的hbase,网上的参考资料不多,访 ...

  9. zookeeper、hbase集成kerberos

    1.KDC创建principal 1.1.创建认证用户 登陆到kdc服务器,使用root或者可以使用root权限的普通用户操作: # kadmin.local -q “addprinc -randke ...

随机推荐

  1. PyQt学习随笔:应用中通过installEventFilter安装重写的eventFilter捕获应用事件的方法

    eventFilter函数是直接从QObject继承的定义的事件刷选虚拟函数,如果一个对象A使用installEventFilter函数将另一个对象B安装了B的实例方法eventFilter,则这个对 ...

  2. PyQt学习随笔:通过自定义类重写QApplication的notify方法捕获应用的所有消息

    PyQt程序通过调用QApplication类的exec_()(sys.exit(app.exec_()) 进入程序主循环,开始处理事件,它从事件队列中获取本地窗口系统事件,将它们转化为 QEvent ...

  3. PostMan参数传递

    一.先取出返回中需要用的值,并设置变量 二.传入下一接口中

  4. 【面试】关于get和post两种方法的不同。

    最近在面试题和笔试题中经常会看到这道题,所以打算系统的整理一下. 一般标准的答案是这样的. GET在浏览器回退时是无害的,而POST会再次提交请求(浏览器应该告知用户数据会被重新提交). GET产生的 ...

  5. 从go-libp2p开始

    这里是从一系列关于libp2p的go实现教程开始,go-libp2p 我们会讲述go的安装,go模块的设置,启动libp2p节点,并在它们之间发送消息. 安装go go-libp2p推荐使用包含 mo ...

  6. MyBatis if 标签的坑,居然被我踩到了。。。

    事件的原因是这样的,需求是按条件查数据然后给前端展示就行了,写的时候想着挺简单的,不就是使用 MyBatis 动态 SQL 去查询数据吗? 现实还是很残酷的,等我写完上完 UAT 后,前端同学说根据s ...

  7. Python(三) PIL, Image生成验证图片

    Python(三) PIL, Image生成验证图片 安装好PIL,开始使用. 在PyCharm中新建一个文件:PIL_Test1.py 1 # PIL 应用练习 2 # 3 # import PIL ...

  8. Panda交易所获悉,五地股权市场获批参与「区块链建设试点」

    Panda交易所获悉,北京市地方金融监督管理局官网于7月21日发布信息显示,"证监会发布<关于原则同意北京.上海.江苏.浙江.深圳等5家区域性股权市场开展区块链建设工作的函>,原 ...

  9. LibreOj #539. 「LibreOJ NOIP Round #1」旅游路线

    题目链接 做完这道题,我深知当一个问题复杂度过高的时候,把一些可以分离的操作都分散开,可以大幅度降低复杂度..... 发现无论有多少钱,每到一个点后扩展到的距离被限制在 \(min(C, c[i])\ ...

  10. 题解-[SDOI2014]数数

    [SDOI2014]数数 这题的前置知识是AC自动机和dp,前置题目是 [JSOI2007]文本生成器,前置题目我写的题解 题解-[JSOI2007]文本生成器.我的讲解假设你做过上面那道题. 这题比 ...