CassandraAppender - distributed logging,分布式软件logback-appender
农历年最后一场scala-meetup听刘颖分享专业软件开发经验,大受启发。突然意识到一直以来都没有完全按照任何标准的开发规范做事。诚然,在做技术调研和学习的过程中不会对规范操作有什么严格要求,一旦技术落地进入应用阶段,开始进行产品开发时,只有严格按照专业的软件开发规范才能保证软件产品的质量。刘颖在meetup中提到了异常处理(exception handling)和过程跟踪(logging)作为软件开发规范中的重要环节。我们在这篇先讨论logging。logging通过记录软件运行过程帮助开发者跟踪软件运行情况,分析运算结果或者异常产生原因,是一个成功完整的软件不可缺少的环节。 logback应该是java生态链中最流行、最通用的logger了。虽然logback已经提供了STDOUT、FILE、DB等多种跟踪信息输出方式,即ConsoleAppender、FileAppender、DBAppender,但针对分布式应用的appender还是需要定制。因为分布式软件是跨系统运行的,跟踪信息自然也会在不同的系统中产生并存储,所以分布式应用需要分布式存储才能实现跟踪信息的全局管理。logback是一套开发架构,任何定制的appender可以很方便地整合入logback。那么我们就尝试开发一套基于cassandra的logback-appender。
首先认识一下logback:感觉需要重点了解的logging运作核心应该是消息等级level的操作。消息等级是指logback根据不同的消息等级来筛选需要记录的消息。logback支持下面几个消息等级,按照各自记录动作覆盖面由弱到强排列,包括:
TRACE -> DEBUG -> INFO -> WARN -> ERROR 分别对应记录函数 trace(msg),debug(msg),info(msg),warn(msg),error(msg)
logback按消息等级进行记录筛选的规则如下:
假设记录函数为p,某个class的消息等级level为q:当p>=q时选择记录消息。换言之调用函数error(msg)时logback会记录所有等级消息,反之trace(msg)只能记录TRACE级别的消息。logback手册中如下表示:
TRACE DEBUG INFO WARN ERROR OFF
trace() YES NO NO NO NO NO
debug() YES YES NO NO NO NO
info() YES YES YES NO NO NO
warn() YES YES YES YES NO NO
error() YES YES YES YES YES NO
logback中每个类的默认消息等级可以按照类型继承树结构继承。当一个子类没有定义消息等级时,它继承对上父类的消息等级,即:X.Y.Z中Z的默认消息等级从Y继承。
好了,以上运作流程都包括在logback的功能里了,跟消息的存储appender没什么关系。下面我们就开始自制一套基于cassandra的appender。上面提过,logback是一套开放的框架,任何按照logback要求开发的appender都可以很方便的整合入logback的功能中去。下面是一个logback的appender框架:
package com.datatech.logback
import ch.qos.logback.classic.spi.ILoggingEvent
import ch.qos.logback.core.UnsynchronizedAppenderBase
import com.datastax.driver.core.querybuilder.QueryBuilder class CassandraAppender extends UnsynchronizedAppenderBase[ILoggingEvent]{ override def append(eventObject: ILoggingEvent): Unit = {
//write log message to cassandra } override def start(): Unit = {
//setup cassandra
super.start()
} override def stop(): Unit = {
super.stop()
//clean up, closing cassandra
} }
我们先实现一个完整的logback配置文件logback.xml,包括ConsoleAppender,FileAppender,CassandraAppender
<configuration>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<Pattern>
%d{yyyy-MM-dd HH:mm:ss} [%thread] %-5level %logger{} - %msg%n
</Pattern>
</encoder>
</appender>
<appender name="FILE" class="ch.qos.logback.core.FileAppender">
<!-- path to your log file, where you want to store logs -->
<file>/Users/Tiger/logback.log</file>
<append>false</append>
<encoder>
<pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{} - %msg%n</pattern>
</encoder>
</appender>
<appender name="cassandraLogger" class="com.datatech.logback.CassandraAppender">
<hosts>192.168.0.189</hosts>
<port></port>
<appName>posware</appName>
<defaultFieldValues>{"app_customer":"bayakala.com","app_device":""}</defaultFieldValues>
<keyspaceName>applog</keyspaceName>
<columnFamily>txnlog</columnFamily>
</appender>
<root level="debug">
<appender-ref ref="cassandraLogger" />
<appender-ref ref="STDOUT" />
</root>
<shutdownHook class="ch.qos.logback.core.hook.DelayingShutdownHook"/>
</configuration>
配置文件里CassandraAppender的属性,如hosts,port,keyspaceName等在scala程序实现方法如下:
private var _hosts: String = ""
def setHosts(hosts: String): Unit = _hosts = hosts private var _port: Int = // for the binary protocol, 9160 is default for thrift
def setPort(port: Int): Unit = _port = port private var _username: String = ""
def setUsername(username: String): Unit = _username = username private var _password: String = ""
def setPassword(password: String): Unit = _password = password
属性的使用如下:
writeLog(eventObject)(optSession.get, _keyspaceName, _columnFamily)(_appName,ip,hostname,_defaultFieldValues)
实际上logback.xml里的这些属性可以在runtime时设定,如下:
//get appender instances
val log: Logger = LoggerFactory.getLogger(org.slf4j.Logger.ROOT_LOGGER_NAME).asInstanceOf[Logger]
val cassAppender = log.getAppender("cassandraLogger").asInstanceOf[CassandraAppender]
val stdoutAppender = log.getAppender("STDOUT").asInstanceOf[ConsoleAppender[ILoggingEvent]]
val fileAppender = log.getAppender("FILE").asInstanceOf[FileAppender[ILoggingEvent]] if(cassAppender != null) {
cassAppender.setHosts("192.168.0.189")
cassAppender.setPort()
cassAppender.start()
}
与通用的appender不同的是:我们需要在应用中与logback进行互动,因为我们需要把具体应用中一些特定的跟踪目标当作数据库字段记录起来。这些特定的跟踪目标如userid,productid等是应用业务特有的,通用的logger是无法覆盖的。所以我们关注的是一套在应用层面通用的logger。为了实现这一目标,首先可以在数据库表结构schema里表现应用的业务特点,下面是个例子:
CREATE TABLE IF NOT EXISTS applog.txnlog (
class_name text,
file_name text,
host_ip text,
host_name text,
level text,
line_number text,
logger_name text,
method_name text,
thread_name text,
throwable_str_rep text,
log_date text,
log_time text,
log_msg text,
app_name text,
app_customer text,
app_device text,
PRIMARY KEY (app_customer, app_device, log_date, log_time)
);
以上的schema中app_customer,app_device属于应用业务属性,因为我们希望从用户或设备角度对消息进行分类管理。以此类推对其它应用我们也是通过设计另一套涵盖业务特性的schema。这些反应业务特性的字段必须在应用中调用消息记录函数时提供,因为这些字段的内容是动态的(如:一个服务端软件的用户可能有几百上千个)。我们只能通过记录的消息来传递这些字段的值。记住,logback可以同时支持自带的appender如ConsoleAppender,FileAppender等,以及CassandraAppender,大家共用logback获取的msg,但我们又必须通过对msg的处理才能加入动态属性的值。为了不影响msg的可读性,可以用json来处理msg,如下:
var msg = event.getMessage()
try {
val logMap = fromJson[Map[String,String]](msg)
logMap.foreach ( m => qryInsert = qryInsert.value(m._1, m._2))
} catch {
case e: Throwable =>
qryInsert = qryInsert.value(MESSAGE, msg)
try {
val dftMap = fromJson[Map[String,String]](default)
dftMap.foreach ( m => qryInsert = qryInsert.value(m._1, m._2))
} catch {
case e: Throwable => }
}
session.execute(qryInsert)
如果event.getMessage()获取的msg不是json格式(如:消息是应用中引用的第三方工具库产生的),就采用在配置文件中定义的默认值(也是json格式的),如上面配置文件中的<defaultFieldValues>属性。
cassandra的使用比较简单,而且我们只使用了insert一项操作。完整的CassandraAppender源代码如下:
package com.datatech.logback
import ch.qos.logback.classic.spi._
import ch.qos.logback.core.UnsynchronizedAppenderBase
import com.datastax.driver.core._
import com.datastax.driver.core.querybuilder.{Insert, QueryBuilder}
import java.net.InetAddress
import java.time._
import java.time.format._
import java.util.Locale class CassandraAppender extends UnsynchronizedAppenderBase[ILoggingEvent]{
import CassandraAppender._ private var _hosts: String = ""
def setHosts(hosts: String): Unit = _hosts = hosts private var _port: Int = // for the binary protocol, 9160 is default for thrift
def setPort(port: Int): Unit = _port = port private var _username: String = ""
def setUsername(username: String): Unit = _username = username private var _password: String = ""
def setPassword(password: String): Unit = _password = password private var _defaultFieldValues: String = ""
def setDefaultFieldValues(defaultFieldValues: String) = _defaultFieldValues = defaultFieldValues private val ip: String = getIP()
private val hostname: String = getHostName() // Keyspace/ColumnFamily information
private var _keyspaceName: String = "Logging"
def setKeyspaceName(keyspaceName: String): Unit = _keyspaceName = keyspaceName private var _columnFamily: String = "log_entries"
def setColumnFamily(columnFamily: String): Unit = _columnFamily = columnFamily private var _appName: String = "default"
def setAppName(appName: String): Unit = _appName = appName private var _replication: String = "{ 'class' : 'SimpleStrategy', 'replication_factor' : 1 }"
def setReplication(replication: String): Unit = _replication = replication private var _consistencyLevelWrite: ConsistencyLevel = ConsistencyLevel.ONE
def setConsistencyLevelWrite(consistencyLevelWrite: String): Unit = {
try {
_consistencyLevelWrite = ConsistencyLevel.valueOf(consistencyLevelWrite.trim)
} catch { case e: Throwable =>
throw new IllegalArgumentException("Consistency level " + consistencyLevelWrite + " wasn't found.")
}
} private var optCluster: Option[Cluster] = None
private var optSession: Option[Session] = None def connectDB(): Unit = {
try {
val cluster = new Cluster
.Builder()
.addContactPoints(_hosts)
.withPort(_port)
.build()
val session = cluster.connect()
optCluster = Some(cluster)
optSession = Some(session)
} catch {
case e: Throwable =>
optCluster = None
optSession = None
println(s"error when logger connecting to cassandra [${_hosts}:${_port}]")
}
} override def append(eventObject: ILoggingEvent): Unit = {
if(optSession.isDefined) {
try {
writeLog(eventObject)(optSession.get, _keyspaceName, _columnFamily)(_appName,ip,hostname,_defaultFieldValues)
} catch {
case e: Throwable =>
}
}
} override def start(): Unit = {
if(! _hosts.isEmpty) {
connectDB()
super.start()
}
} override def stop(): Unit = {
super.stop()
if(optSession.isDefined) {
optSession.get.closeAsync()
optCluster.get.closeAsync()
}
} } object CassandraAppender extends JsonConverter {
// CF column names
val HOST_IP: String = "host_ip"
val HOST_NAME: String = "host_name"
val APP_NAME: String = "app_name"
val LOGGER_NAME: String = "logger_name"
val LEVEL: String = "level"
val CLASS_NAME: String = "class_name"
val FILE_NAME: String = "file_name"
val LINE_NUMBER: String = "line_number"
val METHOD_NAME: String = "method_name"
val THREAD_NAME: String = "thread_name"
val THROWABLE_STR: String = "throwable_str_rep"
val LOG_DATE: String = "log_date"
val LOG_TIME: String = "log_time"
val MESSAGE: String = "log_msg" val dateTimeFormatter = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss.SSS", Locale.US)
def logDate: String = java.time.LocalDate.now.format(DateTimeFormatter.ofPattern("yyyy-MM-dd"))
def logTime: String = LocalDateTime.now.format(dateTimeFormatter).substring() def writeLog(event: ILoggingEvent)(session: Session, kspc: String, tbl: String)(appName: String, ip: String, hostName: String, default: String): ResultSet = {
var qryInsert = QueryBuilder.insertInto(kspc,tbl)
.value(APP_NAME,appName)
.value(HOST_IP,ip)
.value(HOST_NAME,hostName)
.value(LOGGER_NAME,event.getLoggerName())
.value(LEVEL,event.getLevel().toString)
.value(THREAD_NAME,event.getThreadName())
.value(LOG_DATE,logDate)
.value(LOG_TIME,logTime) try {
val callerData = event.getCallerData()
if (callerData.nonEmpty) {
qryInsert = qryInsert.value(CLASS_NAME, callerData.head.getClassName())
.value(FILE_NAME, callerData.head.getFileName())
.value(LINE_NUMBER, callerData.head.getLineNumber().toString)
.value(METHOD_NAME, callerData.head.getMethodName())
}
} catch {case e: Throwable => println(s"logging event error: ${e.getMessage}")} try {
if (event.getThrowableProxy() != null) {
val throwableStrs = event.getThrowableProxy().getSuppressed().asInstanceOf[List[IThrowableProxy]]
val throwableStr = throwableStrs.foldLeft("") { case (b, t) => b + "," + t.getMessage() }
qryInsert = qryInsert.value(THROWABLE_STR, throwableStr)
}
} catch {case e: Throwable => println(s"logging event error: ${e.getMessage}")} var msg = event.getMessage()
try {
val logMap = fromJson[Map[String,String]](msg)
logMap.foreach ( m => qryInsert = qryInsert.value(m._1, m._2))
} catch {
case e: Throwable =>
qryInsert = qryInsert.value(MESSAGE, msg)
try {
val dftMap = fromJson[Map[String,String]](default)
dftMap.foreach ( m => qryInsert = qryInsert.value(m._1, m._2))
} catch {
case e: Throwable => }
}
session.execute(qryInsert)
} def getHostName(): String = {
var hostname = "unknown"
try {
val addr: InetAddress = InetAddress.getLocalHost()
hostname = addr.getHostName()
} catch { case e: Throwable => hostname = "error"}
hostname
} def getIP(): String = {
var ip: String = "unknown"
try {
val addr: InetAddress = InetAddress.getLocalHost()
ip = addr.getHostAddress()
} catch { case e: Throwable => ip = "error" }
ip
} }
下面是测试代码:
import ch.qos.logback.classic.Logger
import ch.qos.logback.core.{ConsoleAppender, FileAppender}
import com.datatech.logback.{CassandraAppender, JsonConverter}
import ch.qos.logback.classic.spi.ILoggingEvent
import org.slf4j.LoggerFactory
import ch.qos.logback.classic.LoggerContext
import java.time._
import java.time.format._
import java.util.Locale import scala.io._
import com.datastax.driver.core._ object LoggingDemo extends App with JsonConverter {
val log: Logger = LoggerFactory.getLogger(org.slf4j.Logger.ROOT_LOGGER_NAME).asInstanceOf[Logger]
val cassAppender = log.getAppender("cassandraLogger").asInstanceOf[CassandraAppender]
val stdoutAppender = log.getAppender("STDOUT").asInstanceOf[ConsoleAppender[ILoggingEvent]]
val fileAppender = log.getAppender("FILE").asInstanceOf[FileAppender[ILoggingEvent]] /*
val cluster = new Cluster
.Builder()
.addContactPoints("192.168.0.189")
.withPort(9042)
.build()
val session = cluster.connect()
val keyspace = getClass.getResource("/logger.schema")
val table = getClass.getResource("/txnlog.schema")
val qrykspc = Source.fromFile(keyspace.getPath).getLines.mkString
session.execute(qrykspc) val qrytbl = Source.fromFile(table.getPath).getLines.mkString
session.execute(qrytbl) session.close()
cluster.close() val json = toJson(loggedItems)
println(s"json = $json") val m = fromJson[Map[String,String]](json)
println(s"map = $m") //stop the appenders
if (stdoutAppender != null)
stdoutAppender.stop()
if (fileAppender != null)
fileAppender.stop()
*/ if(cassAppender != null) {
cassAppender.setHosts("192.168.0.189")
cassAppender.setPort()
cassAppender.start()
} val dateTimeFormatter = DateTimeFormatter.ofPattern("yyyy-MM-dd HH:mm:ss.SSS", Locale.US)
val now = LocalDateTime.now.format(dateTimeFormatter) log.info("************this is a info message ..." + now)
log.debug("***********debugging message here ..." + now) var loggedItems = Map[String,String]()
// loggedItems += ("app_name" -> "test")
loggedItems = loggedItems ++ Map(
("app_customer" -> "logback.com"),
("app_device" -> ""),
("log_msg" -> "specific message for cassandra ...")) log.debug(toJson(loggedItems)) //stop the logger
val loggerContext = LoggerFactory.getILoggerFactory.asInstanceOf[LoggerContext]
loggerContext.stop()
}
CassandraAppender - distributed logging,分布式软件logback-appender的更多相关文章
- Java程序员修炼之道 之 Logging(1/3) - Logback 配置(转)
转自紫风乱写:http://www.blogjava.net/justfly/archive/2014/08/10/416768.html,建议大家去原处学习 写在前面的话: 作为<Java程序 ...
- A Practical Guide to Distributed Scrum - 分布式Scrum的实用指南 - 读书笔记
最近读了这本IBM出的<A Practical Guide to Distributed Scrum>(分布式Scrum的实用指南),书中的章节结构比较清楚,是针对Scrum项目进行,一个 ...
- 【Distributed】分布式任务调度平台
一.概述 什么是定时任务 二.Java实现定时任务方式 2.1 Thread 2.2 TimerTask 2.3 ScheduledExecutorService 2.4 Quartz 引入maven ...
- 分布式软件体系结构风格(C/S,B/S)
分布式软件体系结构风格 1. 三层C/S结构 2. 三层B/S结构 了解很多其它软件体系结构 三层C/S结构(3-Tier C/S Architecture) §第1层:用户界面GUI-表示层-- ...
- 【Distributed】分布式解决方案【汇总】
一.问题引出 二.分布式Session问题 三.网站跨域问题 四.分布式任务调度平台 五.分布式配置中心 六.分布式锁解决方案 七.缓存技术 一.问题引出 [Distributed]分布式系统中遇到的 ...
- sqlserver Distributed Transaction 分布式事务
在webapi+ef+sqlserver开发项目时,利用transcope实现应用层级的事务时,偶尔会报分布式事务错误,而且很而复现,特别蛋疼.现将自己的解决方法初步整理下. 分析原因:搭建repos ...
- 【Distributed】分布式配置中心
一.概述 1.1 什么是分布式配置中心 常用分布式配置中心框架 二.Apollo阿波罗 2.1 Apollo特点 2.2 Apollo整体架构原理 2.3 Apollo Portol 环境搭建 Lin ...
- Sentry 监控 - Distributed Tracing 分布式跟踪
系列 1 分钟快速使用 Docker 上手最新版 Sentry-CLI - 创建版本 快速使用 Docker 上手 Sentry-CLI - 30 秒上手 Source Maps Sentry For ...
- Distributed RPC —— 分布式RPC
This tutorial showed how to do basic stream processing on top of Storm. There's lots more things you ...
随机推荐
- 「SP122」STEVE - Voracious Steve 解题报告
SP122 STEVE - Voracious Steve 题意翻译 Problem Steve和他的一个朋友在玩游戏,游戏开始前,盒子里有 n个甜甜圈,两个人轮流从盒子里抓甜甜圈,每次至少抓 1个, ...
- Java实现上传文件到指定服务器指定目录
前言需求 使用freemarker生成的静态文件,统一存储在某个服务器上.本来一开始打算使用ftp实现的,奈何老连接不上,改用jsch.毕竟有现成的就很舒服,在此介绍给大家. 具体实现 引入的pom ...
- Linux磁盘管理之LVM
一.LVM介绍 在我们管理Linux磁盘的时候,通常会遇到这么一种情况.在最初规划Linux的磁盘的时候,我们给某个分区划分了一定量的磁盘空间,使用一段时间后,发现我们规划的磁盘空间不足了,这个时候怎 ...
- overflow:hidden的使用
(1)overflow:hidden可以用来隐藏溢出的文本内容 给定内容的大小(宽高)超出后自动隐藏 <body> <div class="box"> ...
- Scala:用于Java的轻量级函数式编程
Scala为Java开发提供了轻量级的代码选项,但是学习过程可能会很艰难.了解有关Scala的知识以及是否值得采用. 基于Java的语言通常涉及冗长的语法和特定于领域的语言,用于测试,解析和数值计算过 ...
- JVM之对象
几乎所有对象都是在堆中分配内存的,这次来讲讲java的对象. 对象的创建主要分为以下几步: 首先,查看类是否装载.当JVM读取到new指令的时候,会拿着符号描述去方法区寻找它所属的类,如果未查找到,则 ...
- Maven 基础(二) | 解决依赖冲突的正确姿势
一.依赖原则 假设,在 JavaMavenService2 模块中,log4j 的版本是 1.2.7,在 JavaMavenService1 模块中,它虽然继承于 JavaMavenService2 ...
- Tarjan算法伪代码
伪代码: 栈:当前dfs路径上的点low[x]:x能到达的点中最小的dfn dfs(x,t) 将x入栈 dfn[x]=t low[x]=t for(x,y) i ...
- HTML中使用Vue+Dhtmlxgantt制作任务进度图
HTML中使用Vue+Dhtmlxgantt制作任务进度图 Dhtmlxgantt官网: https://dhtmlx.com/docs/products/dhtmlxGantt/ 参考文章 甘特图配 ...
- 为什么Mozilla Thunderbird无法登陆腾讯企业邮?
(一)问题描述 登陆腾讯企业邮提示"无法登录到服务器.可能是配置.用户名或者密码错误." (二)解决方案 手动配置 IMAP | imap.exmail.qq.com | 993 ...