业务需求:

需求很简单,就是把多个系统的日志数据统一存储到Hbase数据库中,方便统一查看和监控。

解决思路:

写针对Hbase存储的Log4j Appender,有一个简单的日志储存策略,把Log4j的存储和Hbase的存储分开进行,当到达一定量的时候批量写入Hbase。

Log4j的日志暂时存到一个队列,启动一个计划任务定时检查是否到达指定的量级,到达后批量写入Hbase将队列清空。

带来一个问题是在Log4j最后一次的数据可能未达到量级程序关闭而丢失,所以如果日志非常重要的话请同时开启文件存储!

具体代码

代码部分略掉所有import,请自行导入。

log4j.properties

log4j.rootLogger=INFO,HbaseAppender

#HbaseAppender
log4j.appender.HbaseAppender=cn.bg.log.HbaseAppender
log4j.appender.HbaseAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.HbaseAppender.layout.ConversionPattern=%d [%t] %-5p [%c] - %m%n

HbaseAppender

package cn.bg.log;

public class HbaseAppender extends AppenderSkeleton implements Runnable {

    private int batchSize = 10;
private int period = 1000;
private String hbLogName = "test";
private String hbLogFamily = "bg";
private int hbPools = 2;
private Queue<LoggingEvent> loggingEvents;
private ScheduledExecutorService executor;
private ScheduledFuture<?> task;
private Configuration conf;
private HTablePool hTablePool;
private HTableInterface htable; /**
* log4j初始设置,启动日志处理计划任务
*/
@Override
public void activateOptions() {
try {
super.activateOptions();
//创建一个计划任务,并自定义线程名
executor = Executors.newSingleThreadScheduledExecutor(new NamedThreadFactory("HbaseAppender"));
//日志队列
loggingEvents = new ConcurrentLinkedQueue<LoggingEvent>();
//启动计划任务,如果run函数有异常任务将中断!
task = executor.scheduleWithFixedDelay(this, period, period, TimeUnit.MILLISECONDS);
System.out.println("ActivateOptions ok!");
} catch (Exception e) {
System.err.println("Error during activateOptions: " + e);
}
} /**
* 初始HBASE
*
* @return
*/
private boolean initHbase() {
try {
if (conf == null) {
//根据classpath下hbase-site.xml创建hbase连接,基于zookeeper
conf = HBaseConfiguration.create();
//htable链接池
hTablePool = new HTablePool(conf, hbPools);
htable = hTablePool.getTable(hbLogName);
System.out.println("Init Hbase OK!");
}
return true;
} catch (Exception e) {
task.cancel(false);
executor.shutdown();
System.err.println("Init Hbase fail !");
return false;
}
} @Override
public void run() {
if (conf == null || htable == null) {
initHbase();
}
try {
//日志数据超出批量处理大小
if (batchSize <= loggingEvents.size()) {
LoggingEvent event;
List<Put> logs = new ArrayList<Put>();
//循环处理日志队列
while ((event = loggingEvents.poll()) != null) {
try {
//创建日志并指定ROW KEY
Put log = new Put((event.getThreadName() + event.getLevel().toString() + System.currentTimeMillis()).getBytes());
//写日志内容
log.add(hbLogFamily.getBytes(), "log".getBytes(), layout.format(event).getBytes());
logs.add(log);
} catch (Exception e) {
System.err.println("Error logging put " + e);
}
}
//批量写入HBASE
if (logs.size() > 0) htable.put(logs);
}
} catch (Exception e) {
System.err.println("Error run " + e);
}
} /**
* 日志事件
*
* @param loggingEvent
*/
@Override
protected void append(LoggingEvent loggingEvent) {
try {
populateEvent(loggingEvent);
//添加到日志队列
loggingEvents.add(loggingEvent);
} catch (Exception e) {
System.err.println("Error populating event and adding to queue" + e);
}
} /**
* 事件测试
*
* @param event
*/
protected void populateEvent(LoggingEvent event) {
event.getThreadName();
event.getRenderedMessage();
event.getNDC();
event.getMDCCopy();
event.getThrowableStrRep();
event.getLocationInformation();
} @Override
public void close() {
try {
task.cancel(false);
executor.shutdown();
hTablePool.close();
htable.close();
} catch (IOException e) {
System.err.println("Error close " + e);
}
} @Override
public boolean requiresLayout() {
return true;
} //设置每一批日志处理数量
public void setBatchSize(int batchSize) {
this.batchSize = batchSize;
} /**
* 设置计划任务执行间隔
*
* @param period
*/
public void setPeriod(int period) {
this.period = period;
} /**
* 设置日志存储HBASE表名
*
* @param hbLogName
*/
public void setHbLogName(String hbLogName) {
this.hbLogName = hbLogName;
} /**
* 日志表的列族名字
* @param hbLogFamily
*/
public void setHbLogFamily(String hbLogFamily) {
this.hbLogFamily = hbLogFamily;
}
}

NamedThreadFactory

package cn.bg.log;

public class NamedThreadFactory implements ThreadFactory {
private final String prefix;
private final ThreadFactory threadFactory;
private final AtomicInteger atomicInteger = new AtomicInteger(); public NamedThreadFactory(final String prefix){
this(prefix, Executors.defaultThreadFactory());
} public NamedThreadFactory(final String prefix, final ThreadFactory threadFactory){
this.prefix = prefix;
this.threadFactory = threadFactory;
} @Override
public Thread newThread(Runnable r) {
Thread t = this.threadFactory.newThread(r);
t.setName(this.prefix + this.atomicInteger.incrementAndGet());
return t;
}
}

完!

用Hbase存储Log4j日志数据:HbaseAppender的更多相关文章

  1. flume学习(三):flume将log4j日志数据写入到hdfs(转)

    原文链接:flume学习(三):flume将log4j日志数据写入到hdfs 在第一篇文章中我们是将log4j的日志输出到了agent的日志文件当中.配置文件如下: tier1.sources=sou ...

  2. HBase存储剖析与数据迁移

    1.概述 HBase的存储结构和关系型数据库不一样,HBase面向半结构化数据进行存储.所以,对于结构化的SQL语言查询,HBase自身并没有接口支持.在大数据应用中,虽然也有SQL查询引擎可以查询H ...

  3. NoSql存储日志数据之Spring+Logback+Hbase深度集成

    NoSql存储日志数据之Spring+Logback+Hbase深度集成 关键词:nosql, spring logback, logback hbase appender 技术框架:spring-d ...

  4. 应用Flume+HBase采集和存储日志数据

    1. 在本方案中,我们要将数据存储到HBase中,所以使用flume中提供的hbase sink,同时,为了清洗转换日志数据,我们实现自己的AsyncHbaseEventSerializer. pac ...

  5. 分布式爬虫系统设计、实现与实战:爬取京东、苏宁易购全网手机商品数据+MySQL、HBase存储

    http://blog.51cto.com/xpleaf/2093952 1 概述 在不用爬虫框架的情况,经过多方学习,尝试实现了一个分布式爬虫系统,并且可以将数据保存到不同地方,类似MySQL.HB ...

  6. MongoDB应用案例:使用 MongoDB 存储日志数据

    线上运行的服务会产生大量的运行及访问日志,日志里会包含一些错误.警告.及用户行为等信息,通常服务会以文本的形式记录日志信息,这样可读性强,方便于日常定位问题,但当产生大量的日志之后,要想从大量日志里挖 ...

  7. 使用 MongoDB 存储日志数据

    使用 MongoDB 存储日志数据     线上运行的服务会产生大量的运行及访问日志,日志里会包含一些错误.警告.及用户行为等信息.通常服务会以文本的形式记录日志信息,这样可读性强,方便于日常定位问题 ...

  8. MongoDB 存储日志数据

    MongoDB 存储日志数据 https://www.cnblogs.com/nongchaoer/archive/2017/01/11/6274242.html 线上运行的服务会产生大量的运行及访问 ...

  9. 一次flume exec source采集日志到kafka因为单条日志数据非常大同步失败的踩坑带来的思考

    本次遇到的问题描述,日志采集同步时,当单条日志(日志文件中一行日志)超过2M大小,数据无法采集同步到kafka,分析后,共踩到如下几个坑.1.flume采集时,通过shell+EXEC(tail -F ...

随机推荐

  1. :first // :last

    描述: 获取匹配的第一个元素 HTML 代码: <ul> <li>list item 1</li> <li>list item 2</li> ...

  2. inux设备驱动归纳总结(五):2.操作硬件——IO内存【转】

    本文转载自:http://blog.chinaunix.net/uid-25014876-id-80627.html inux设备驱动归纳总结(五):2.操作硬件——IO内存 xxxxxxxxxxxx ...

  3. 160907、CSS 预处理器-Less

    CSS 预处理器是什么?一般来说,它们基于 CSS 扩展了一套属于自己的 DSL,来解决我们书写 CSS 时难以解决的问题: 语法不够强大,比如无法嵌套书写导致模块化开发中需要书写很多重复的选择器: ...

  4. JSP中文乱码问题解决方法小结

    在使用JSP的过程中,最使人头疼的一个问题就是中文乱码问题,以下是我在软件开发中遇到的乱 码问题以及解决方法. 1.JSP页面乱码 这种乱码的原因是应为没有在页面里指定使用的字符集编码,解决方法:只要 ...

  5. PBOC APDU命令解析【转】

    转自:http://blog.csdn.net/zuokong/article/details/49335257 版权声明:本文为博主原创文章,未经博主允许不得转载. 应用层发出的命令报文和卡片回送到 ...

  6. Linux批量修改用户密码

    对系统定期修改密码是一个很重要的安全常识,通常,我们修改用户密码都使用passwd user这样的命名来修改密码,但是这样会进入交互模式,即使使用脚本也不能很方便的批量修改,除非使用expect这样的 ...

  7. XCode属性面板使用说明

    Xcode 中Interface Builder 工具 是一个功能强大的“所见即所得”开发工具.本文主要介绍属性面板 和  对象库面板 对象库面板: 提供了所有Cocoa Touch 库给我们定义好的 ...

  8. ActiveMQ 安装异常

    解决方式: 1.确认计算机主机名名称没有下划线: 2.如果是win7,停止ICS(运行-->services.msc找到Internet Connection Sharing (ICS)服务,改 ...

  9. C++11 std::function用法

    转自 http://www.hankcs.com/program/cpp/c11-std-function-usage.html function可以将普通函数,lambda表达式和函数对象类统一起来 ...

  10. List与Set的contains方法效率问题

    今天看到网上一篇文章说:Set检索元素效率低下,删除和插入效率高:List查找元素效率高,插入删除元素效率低.于是想到List虽然用get(index)方法查询效率高,但是若用contains方法查询 ...