用Hbase存储Log4j日志数据:HbaseAppender
业务需求:
需求很简单,就是把多个系统的日志数据统一存储到Hbase数据库中,方便统一查看和监控。
解决思路:
写针对Hbase存储的Log4j Appender,有一个简单的日志储存策略,把Log4j的存储和Hbase的存储分开进行,当到达一定量的时候批量写入Hbase。
Log4j的日志暂时存到一个队列,启动一个计划任务定时检查是否到达指定的量级,到达后批量写入Hbase将队列清空。
带来一个问题是在Log4j最后一次的数据可能未达到量级程序关闭而丢失,所以如果日志非常重要的话请同时开启文件存储!
具体代码
代码部分略掉所有import,请自行导入。
log4j.properties
log4j.rootLogger=INFO,HbaseAppender
#HbaseAppender
log4j.appender.HbaseAppender=cn.bg.log.HbaseAppender
log4j.appender.HbaseAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.HbaseAppender.layout.ConversionPattern=%d [%t] %-5p [%c] - %m%n
HbaseAppender
package cn.bg.log;
public class HbaseAppender extends AppenderSkeleton implements Runnable {
private int batchSize = 10;
private int period = 1000;
private String hbLogName = "test";
private String hbLogFamily = "bg";
private int hbPools = 2;
private Queue<LoggingEvent> loggingEvents;
private ScheduledExecutorService executor;
private ScheduledFuture<?> task;
private Configuration conf;
private HTablePool hTablePool;
private HTableInterface htable;
/**
* log4j初始设置,启动日志处理计划任务
*/
@Override
public void activateOptions() {
try {
super.activateOptions();
//创建一个计划任务,并自定义线程名
executor = Executors.newSingleThreadScheduledExecutor(new NamedThreadFactory("HbaseAppender"));
//日志队列
loggingEvents = new ConcurrentLinkedQueue<LoggingEvent>();
//启动计划任务,如果run函数有异常任务将中断!
task = executor.scheduleWithFixedDelay(this, period, period, TimeUnit.MILLISECONDS);
System.out.println("ActivateOptions ok!");
} catch (Exception e) {
System.err.println("Error during activateOptions: " + e);
}
}
/**
* 初始HBASE
*
* @return
*/
private boolean initHbase() {
try {
if (conf == null) {
//根据classpath下hbase-site.xml创建hbase连接,基于zookeeper
conf = HBaseConfiguration.create();
//htable链接池
hTablePool = new HTablePool(conf, hbPools);
htable = hTablePool.getTable(hbLogName);
System.out.println("Init Hbase OK!");
}
return true;
} catch (Exception e) {
task.cancel(false);
executor.shutdown();
System.err.println("Init Hbase fail !");
return false;
}
}
@Override
public void run() {
if (conf == null || htable == null) {
initHbase();
}
try {
//日志数据超出批量处理大小
if (batchSize <= loggingEvents.size()) {
LoggingEvent event;
List<Put> logs = new ArrayList<Put>();
//循环处理日志队列
while ((event = loggingEvents.poll()) != null) {
try {
//创建日志并指定ROW KEY
Put log = new Put((event.getThreadName() + event.getLevel().toString() + System.currentTimeMillis()).getBytes());
//写日志内容
log.add(hbLogFamily.getBytes(), "log".getBytes(), layout.format(event).getBytes());
logs.add(log);
} catch (Exception e) {
System.err.println("Error logging put " + e);
}
}
//批量写入HBASE
if (logs.size() > 0) htable.put(logs);
}
} catch (Exception e) {
System.err.println("Error run " + e);
}
}
/**
* 日志事件
*
* @param loggingEvent
*/
@Override
protected void append(LoggingEvent loggingEvent) {
try {
populateEvent(loggingEvent);
//添加到日志队列
loggingEvents.add(loggingEvent);
} catch (Exception e) {
System.err.println("Error populating event and adding to queue" + e);
}
}
/**
* 事件测试
*
* @param event
*/
protected void populateEvent(LoggingEvent event) {
event.getThreadName();
event.getRenderedMessage();
event.getNDC();
event.getMDCCopy();
event.getThrowableStrRep();
event.getLocationInformation();
}
@Override
public void close() {
try {
task.cancel(false);
executor.shutdown();
hTablePool.close();
htable.close();
} catch (IOException e) {
System.err.println("Error close " + e);
}
}
@Override
public boolean requiresLayout() {
return true;
}
//设置每一批日志处理数量
public void setBatchSize(int batchSize) {
this.batchSize = batchSize;
}
/**
* 设置计划任务执行间隔
*
* @param period
*/
public void setPeriod(int period) {
this.period = period;
}
/**
* 设置日志存储HBASE表名
*
* @param hbLogName
*/
public void setHbLogName(String hbLogName) {
this.hbLogName = hbLogName;
}
/**
* 日志表的列族名字
* @param hbLogFamily
*/
public void setHbLogFamily(String hbLogFamily) {
this.hbLogFamily = hbLogFamily;
}
}
NamedThreadFactory
package cn.bg.log;
public class NamedThreadFactory implements ThreadFactory {
private final String prefix;
private final ThreadFactory threadFactory;
private final AtomicInteger atomicInteger = new AtomicInteger();
public NamedThreadFactory(final String prefix){
this(prefix, Executors.defaultThreadFactory());
}
public NamedThreadFactory(final String prefix, final ThreadFactory threadFactory){
this.prefix = prefix;
this.threadFactory = threadFactory;
}
@Override
public Thread newThread(Runnable r) {
Thread t = this.threadFactory.newThread(r);
t.setName(this.prefix + this.atomicInteger.incrementAndGet());
return t;
}
}
完!
用Hbase存储Log4j日志数据:HbaseAppender的更多相关文章
- flume学习(三):flume将log4j日志数据写入到hdfs(转)
原文链接:flume学习(三):flume将log4j日志数据写入到hdfs 在第一篇文章中我们是将log4j的日志输出到了agent的日志文件当中.配置文件如下: tier1.sources=sou ...
- HBase存储剖析与数据迁移
1.概述 HBase的存储结构和关系型数据库不一样,HBase面向半结构化数据进行存储.所以,对于结构化的SQL语言查询,HBase自身并没有接口支持.在大数据应用中,虽然也有SQL查询引擎可以查询H ...
- NoSql存储日志数据之Spring+Logback+Hbase深度集成
NoSql存储日志数据之Spring+Logback+Hbase深度集成 关键词:nosql, spring logback, logback hbase appender 技术框架:spring-d ...
- 应用Flume+HBase采集和存储日志数据
1. 在本方案中,我们要将数据存储到HBase中,所以使用flume中提供的hbase sink,同时,为了清洗转换日志数据,我们实现自己的AsyncHbaseEventSerializer. pac ...
- 分布式爬虫系统设计、实现与实战:爬取京东、苏宁易购全网手机商品数据+MySQL、HBase存储
http://blog.51cto.com/xpleaf/2093952 1 概述 在不用爬虫框架的情况,经过多方学习,尝试实现了一个分布式爬虫系统,并且可以将数据保存到不同地方,类似MySQL.HB ...
- MongoDB应用案例:使用 MongoDB 存储日志数据
线上运行的服务会产生大量的运行及访问日志,日志里会包含一些错误.警告.及用户行为等信息,通常服务会以文本的形式记录日志信息,这样可读性强,方便于日常定位问题,但当产生大量的日志之后,要想从大量日志里挖 ...
- 使用 MongoDB 存储日志数据
使用 MongoDB 存储日志数据 线上运行的服务会产生大量的运行及访问日志,日志里会包含一些错误.警告.及用户行为等信息.通常服务会以文本的形式记录日志信息,这样可读性强,方便于日常定位问题 ...
- MongoDB 存储日志数据
MongoDB 存储日志数据 https://www.cnblogs.com/nongchaoer/archive/2017/01/11/6274242.html 线上运行的服务会产生大量的运行及访问 ...
- 一次flume exec source采集日志到kafka因为单条日志数据非常大同步失败的踩坑带来的思考
本次遇到的问题描述,日志采集同步时,当单条日志(日志文件中一行日志)超过2M大小,数据无法采集同步到kafka,分析后,共踩到如下几个坑.1.flume采集时,通过shell+EXEC(tail -F ...
随机推荐
- 鸟哥的linux私房菜学习记录之账号管理与权限设定
每个登录者都会取到两个ID,一个使用者ID,一个群组ID
- DataTables使用学习记录
导入 <link rel="stylesheet" type="text/css" href="DataTables-1.10.12/media ...
- 161102、MyBatis中批量插入
方法一: <insert id="insertbatch" parameterType="java.util.List"> <selectKe ...
- input放在a标签里面不能选择input里面的文本,IE9点击失效
input放在a标签里面不能选择input里面的文本,IE9点击失效 在IE浏览器中<input type="text" value="test" /&g ...
- Angular.js为什么如此火呢?
在本文中让我们来逐步发掘angular为什么如此火: Angular.js 是一个MV*(Model-View-Whatever,不管是MVC或者MVVM,统归MDV(model Drive View ...
- mysql主从同步及清除信息
主:reset master; 从:reset slave all; mysql主从配置: 1.MySQL主配置文件增加如下:default-storage-engine = innodbinnodb ...
- 【Pro ASP.NET MVC 3 Framework】.学习笔记.2.MVC的主要工具-Ninject
这三个工具,应该是每个MVC程序员的兵工厂中的一部分.DI容器,单元测试框架,mocking 工具.Ninject是我们偏爱的DI容器,它简单,高雅,并且容易使用.这里有很多复杂的替代品,但是我们喜欢 ...
- TCP/IP协议 HTTP协议
TCP/IP协议 OSI传统的7层参考模型:物理层,数据链路层,网络层,传输层,话路层,表示层和应用层.而TCP/IP协议并不完全符合这7层参考模型,它只采用了其中的应用层,传输层,网络层和数据链路层 ...
- Quartz2D简介及基本线条绘制
* Quartz2D简介 1.什么是Quartz2D? 他是一个二维的绘图引擎,同时支持iOS和Mac系统 2.Quartz2D能完成的工作 画基本线条,绘制文字,图片,截图,自定义UIView. 3 ...
- set_include_path — 设置 include_path 配置选项为当前脚本设置 include_path 运行时的配置选项。
说明 string set_include_path ( string $new_include_path ) 为当前脚本设置 include_path 运行时的配置选项. 参数 new_includ ...