深入详解美团点评CAT跨语言服务监控(八)报表持久化
周期结束
我们从消息分发章节知道,RealtimeConsumer在初始化的时候,会启动一个线程,每隔1秒钟就去从判断是否需要开启或结束一个周期(Period),如下源码,如果 value < 0 的时候,就会启动一个周期结束线程,线程会调用endPeriod函数,找到需要结束的周期,完成周期的结束以及清理工作,并将周期对象从PeriodManager中移除。
- public class PeriodManager implements Task {
- private List<Period> m_periods = new ArrayList<Period>();
- @Override
- public void run() {
- while (m_active) {
- try {
- long now = System.currentTimeMillis();
- long value = m_strategy.next(now);
- if (value > 0) {
- startPeriod(value);
- } else if (value < 0) {
- // last period is over,make it asynchronous
- Threads.forGroup("cat").start(new EndTaskThread(-value));
- }
- }
- ...
- }
- }
- private void endPeriod(long startTime) {
- int len = m_periods.size();
- for (int i = 0; i < len; i++) {
- Period period = m_periods.get(i);
- if (period.isIn(startTime)) {
- period.finish();
- m_periods.remove(i);
- break;
- }
- }
- }
- private class EndTaskThread implements Task {
- public void run() { endPeriod(m_startTime); }
- }
- }
我们知道,周期是由许多的周期任务(PeriodTask)构成,所以事实上,一个周期的结束,就是周期内所有周期任务的结束,每个周期任务对应着一个任务队列和一个消息分析器(MessageAnalyzer),归根结底是对MessageAnalyzer的结束。
- public class PeriodTask implements Task, LogEnabled {
- private MessageAnalyzer m_analyzer;
- public void finish() {
- try {
- m_analyzer.doCheckpoint(true);
- m_analyzer.destroy();
- } catch (Exception e) {
- Cat.logError(e);
- }
- }
- }
doCheckpoint 我们似曾相识,在CatHomeModule初始化的最后,我们会向虚拟机注册shutdownhook,保证在虚拟机关闭时,未被正常结束的周期会被RealtimeConsumer结束,RealtimeConsumer.doCheckpoint与上面正常结束周期所做的工作是一样的,都是调用分析器的doCheckpoint方法,唯一的区别是,分析器doCheckpoint函数的传入的atEnd参数不同,表示周期是否在到期后正常结束的。
- Runtime.getRuntime().addShutdownHook(new Thread() {
- @Override
- public void run() {
- consumer.doCheckpoint();
- }
- });
分析器的结束 -- 报表持久化
分析器的结束实际上就是报表的持久化的一个过程,分析器处理消息的过程中,我们一共形成了9个报表,图1展示了这9个报表的结构:
我们知道每个周期的消息分析器(MessageAnalyzer)的结束都是在doCheckpoint来实现的,实际运行中一共有10种消息分析器参与消息分析工作,那么不同类别的分析器,他的结束逻辑都是一样的吗?
除了几个特殊的分析器(如Metric、Dump)之外,其它消息分析器结束逻辑都同下面源码,调用storeHourlyReports方法存储报表,所有报表都会被存到文件,atEnd 和 localMode 参数决定我们是否将报表存到数据库。
其中State报表有点特殊,因为State是对CAT本身的监控,在周期任务(PeriodTask)运行过程中并没有收集任何数据,而是在doCheckpoint的时候对CAT消息监控情况汇总生成的一个报表,所以调用storeHourlyReports之前,他需要首先收集State报表数据。
- public class XxxAnalyzer extends AbstractMessageAnalyzer<XxxReport> implements LogEnabled {
- private ReportManager<XxxReport> m_reportManager;
- public synchronized void doCheckpoint(boolean atEnd) {
- if (atEnd && !isLocalMode()) {
- m_reportManager.storeHourlyReports(getStartTime(), StoragePolicy.FILE_AND_DB, m_index);
- } else {
- m_reportManager.storeHourlyReports(getStartTime(), StoragePolicy.FILE, m_index);
- }
- }
- }
我们先详细剖析storeHourlyReports 的过程,然后再看看几个特殊的分析器的结束逻辑。storeHourlyReports 首先将该分析器生成的所有报表都取出,然后我们会校验报表的domain名称是否合法,不合法的报表将被移除,在序列化之前,我们会调用ReportDelegate.beforeSave(...)方法做一些预处理的工作。不同种类的报表,预处理所做的工作是不同的,后续我们分别讲解,做完预处理的工作之后,我们就正式持久化了,支持文件和数据库两种持久化方式,我们会根据传入的序列化策略(StoragePolicy) 来选择需要进行哪种序列化,一般来说,如果是正常的周期结束,数据会持久化到文件和数据库,如果是JVM Shutdown导致的结束,只持久化到文件,两种持久化的细节后续我们也会分别详细讲解。
- public class DefaultReportManager<T> extends ContainerHolder implements ReportManager<T>, Initializable, LogEnabled {
- @Override
- public void storeHourlyReports(long startTime, StoragePolicy policy, int index) {
- Map<String, T> reports = m_reports.get(startTime);
- ReportBucket bucket = null;
- try {
- if (reports != null) {
- //校验、移除不合法Domain名字的报表
- ...
- m_reportDelegate.beforeSave(reports);
- if (policy.forFile()) {
- bucket = m_bucketManager.getReportBucket(startTime, m_name, index);
- try {
- storeFile(reports, bucket);
- } finally {
- m_bucketManager.closeBucket(bucket);
- }
- }
- if (policy.forDatabase()) {
- storeDatabase(startTime, reports);
- }
- }
- } catch (Throwable e) {
- //报告异常
- ...
- } finally {
- cleanup(startTime);
- t.complete();
- if (bucket != null) {
- m_bucketManager.closeBucket(bucket);
- }
- }
- }
- }
报表预处理
在继续讲解序列化之前,我们来说一说报表的预处理工作(beforeSave),各报表的预处理逻辑,有相同、也有异同的地方,Top、State报表预处理不做任何事情,其它报表都有处理逻辑,以Transaction报表的预处理工作为例,分为两个部分。
第一部分是将所有Transaction报表的domain都收集起来,写入报表的成员变量 m_domainNames,这样每个报表都会知道一共都有哪些domain参与监控, 从图1的报表结构来看,Heartbeat、Event、Problem、Cross报表也包含m_domainNames字段,事实上这些报表的预处理也确实会收集所有domain。其中Heartbeat和Cross的预处理仅仅包含这部分逻辑。
第二部分是聚合报表,所谓聚合,就是创建一个命名为ALL的聚合报表,将同一个Domain下不同IP地址的数据汇总起来,写到报表ALL的同一个Machine对象内,Machine的ip不再是地址,而是Domain名,所有Domain数据都汇总到ALL报表的不同Machine下。因为现在服务端几乎都是采用集群,有可能10几台机器上运行着同一个项目,这时我们可以通过聚合报表去站在项目角度去看待统计结果,报表的聚合大量采用了访问者模式。
也不是所有类型的事务都会参与聚合,配置 all-report-config 会指定哪些事务会参与聚合,如下默认type="URL"的事务,这是因为通常URL是代表一个项目的接口对外服务的最完整链路耗时,从以下配置可以看到,除了Transaction消息之外,Event消息也会参与聚合,逻辑与Transaction大同小异,在此不再赘述。
- <all-config>
- <report id="transaction">
- <type id="URL">
- <name id="*"></name>
- </type>
- </report>
- <report id="event">
- <type id="URL">
- <name id="*"></name>
- </type>
- <type id="SQL">
- <name id="*"></name>
- </type>
- </report>
- </all-config>
Problem有一个独有的预处理流程,就是通过ProblemReportFilter对象将长时URL访问(long-url)的记录总数控制在100条之内,防止长时访问数量过多,导致报表数据过大。
Storage报表的预处理只有一个 updateStorageIds 调用,他的功能和Transaction预处理第一部分类似,也是让每个Storage报表都知道目前有哪些数据库/缓存在被访问、监控,我们知道Storage报表的ID是由 数据库/缓存名 + 类型(SQL/Cache) 组成,updateStorageIds会将所有数据库/缓存名收集,然后写入StorageReport的成员变量m_ids。
下面将所有报表持久化的预处理做了一个汇总,放在一个函数内,呈现在以下伪代码中:
- public class XxxDelegate implements ReportDelegate<XxxReport> {
- @Override
- public void beforeSave(Map<String, XxxReport> reports) {
- //Top、State不干任何事直接返回
- return;
- //storage 仅有下面 updateStorageIds 步骤,完成后返回。
- for (StorageReport report : reports.values()) {
- m_reportUpdater.updateStorageIds(report.getId(), reports.keySet(), report);
- }
- //Problem、Transaction、Event、Heartbeat、Cross都有的步骤
- for (XxxReport report : reports.values()) {
- Set<String> domainNames = report.getDomainNames();
- domainNames.clear();
- domainNames.addAll(reports.keySet());
- }
- //报表聚合,Transaction、Event 独有
- if (reports.size() > 0) {
- TransactionReport all = createAggregatedReport(reports);
- reports.put(all.getDomain(), all);
- }
- //Problem独有,控制long-url消息量。
- ProblemReportFilter problemReportURLFilter = new ProblemReportFilter();
- for (Entry<String, ProblemReport> entry : reports.entrySet()) {
- ProblemReport report = entry.getValue();
- problemReportURLFilter.visitProblemReport(report);
- }
- }
- }
报表的文件存储 -- 重入锁
在做完预处理之后,所有报表都将被持久化到文件,在DefaultReportManager调用storeFile存储文件之前,我们先调用 m_bucketManager.getReportBucket(...) 来创建并初始化ReportBucket,文件的读写相关操作都封装于ReportBucket里面,文件的读写同步采用重入锁(ReentrantLock)保证读写安全。
- public class LocalReportBucket implements ReportBucket, LogEnabled {
- @Override
- public void initialize(String name, Date timestamp, int index) throws IOException {
- m_baseDir = m_configManager.getHdfsLocalBaseDir("report");
- m_writeLock = new ReentrantLock();
- m_readLock = new ReentrantLock();
- String logicalPath = m_pathBuilder.getReportPath(name, timestamp, index);
- File dataFile = new File(m_baseDir, logicalPath);
- File indexFile = new File(m_baseDir, logicalPath + ".idx");
- if (indexFile.exists()) {
- loadIndexes(indexFile);
- }
- final File dir = dataFile.getParentFile();
- if (!dir.exists() && !dir.mkdirs()) {
- throw new IOException(String.format("Fail to create directory(%s)!", dir));
- }
- m_logicalPath = logicalPath;
- m_writeDataFile = new BufferedOutputStream(new FileOutputStream(dataFile, true), 8192);
- m_writeIndexFile = new BufferedOutputStream(new FileOutputStream(indexFile, true), 8192);
- m_writeDataFileLength = dataFile.length();
- m_readDataFile = new RandomAccessFile(dataFile, "r");
- }
- }
报表存储基础路径(m_baseDir)在配置 server.xml 中指定,每个分析器实例都会最终生成若干个报表,我们会为这个分析器产生的这些报表生成一个数据文件和报表索引文件,存于逻辑路径(logicalPath )下,逻辑路径以日期/小时/index来划分,例如:20180604/15/1/report-cross , 20180604为日期, 15为下午3点的周期,1是分析器实例index,之前说过有些分析器处理过程复杂,可能会有多个实例,例如Cross、Event、Problem、Transaction报表, 数据文件名取 m_baseDir + logicalPath, 索引文件是在数据文件名加上 ".idx" 后缀,如下:
数据文件存储该分析器下所有转化为xml格式的报表数据,索引文件是对数据文件内报表的一个位置索引,比如 report-problem.idx索引文件内容如下,每一行都记录一个报表名称和报表在数据文件的起始位置。
- RpcService 0
- Cat 1388
- RpcClient2 4600
- RpcClient 5807
现在再来看看storeFile的逻辑就非常简单了, 获取domain,将报表对象转化为xml数据,最后调用storeById将xml写入数据文件和索引文件。
- public class DefaultReportManager<T> extends ContainerHolder implements ReportManager<T>, Initializable, LogEnabled {
- private void storeFile(Map<String, T> reports, ReportBucket bucket) {
- for (T report : reports.values()) {
- try {
- String domain = m_reportDelegate.getDomain(report);
- String xml = m_reportDelegate.buildXml(report);
- bucket.storeById(domain, xml);
- } catch (Exception e) {
- Cat.logError(e);
- }
- }
- }
- }
报表的数据库存储
如果是正常的周期结束之后,发起的持久化,而不是由于虚拟机关闭引起的,数据除了被持久化到文件之外,还会被持久化到数据库。
所有的数据库持久化逻辑都在 storeDatabase(...) 方法中完成,每个分析器中的每个报表的描述信息,都会被插入数据库report表中,在程序中,HourlyReport实体与该表对应,如图3, 报表具体内容会通过m_reportDelegate.buildBinary(report)转化成二进制数据,然后插入数据库report_content 表,在程序中,HourlyReportContent实体与该表对应,如图4,report_content 表的主键来自report的主键。
- public class DefaultReportManager<T> extends ContainerHolder implements ReportManager<T>, Initializable, LogEnabled {
- @Inject
- private HourlyReportDao m_reportDao;
- @Inject
- private HourlyReportContentDao m_reportContentDao;
- private void storeDatabase(long startTime, Map<String, T> reports) {
- Date period = new Date(startTime);
- String ip = NetworkInterfaceManager.INSTANCE.getLocalHostAddress();
- for (T report : reports.values()) {
- try {
- String domain = m_reportDelegate.getDomain(report);
- HourlyReport r = m_reportDao.createLocal();
- r.setName(m_name);
- r.setDomain(domain);
- r.setPeriod(period);
- r.setIp(ip);
- r.setType(1);
- m_reportDao.insert(r);
- int id = r.getId();
- byte[] binaryContent = m_reportDelegate.buildBinary(report);
- HourlyReportContent content = m_reportContentDao.createLocal();
- content.setReportId(id);
- content.setContent(binaryContent);
- m_reportContentDao.insert(content);
- m_reportDelegate.createHourlyTask(report);
- } catch (Throwable e) {
- Cat.getProducer().logError(e);
- }
- }
- }
- }
- CREATE TABLE `report` (
- `id` int(11) NOT NULL AUTO_INCREMENT,
- `type` tinyint(4) NOT NULL COMMENT '报表类型, 1/xml, 9/binary 默认1',
- `name` varchar(20) NOT NULL COMMENT '报表名称',
- `ip` varchar(50) DEFAULT NULL COMMENT '报表来自于哪台机器',
- `domain` varchar(50) NOT NULL COMMENT '报表项目',
- `period` datetime NOT NULL COMMENT '报表时间段',
- `creation_date` datetime NOT NULL COMMENT '报表创建时间',
- PRIMARY KEY (`id`),
- KEY `IX_Domain_Name_Period` (`domain`,`name`,`period`),
- KEY `IX_Name_Period` (`name`,`period`),
- KEY `IX_Period` (`period`)
- ) ENGINE=InnoDB AUTO_INCREMENT=18497 DEFAULT CHARSET=utf8 ROW_FORMAT=COMPRESSED COMMENT='用于存放实时报表信息,处理之后的结果';
- CREATE TABLE `report_content` (
- `report_id` int(11) NOT NULL COMMENT '报表ID',
- `content` longblob NOT NULL COMMENT '二进制报表内容',
- `creation_date` datetime NOT NULL COMMENT '创建时间',
- PRIMARY KEY (`report_id`)
- ) ENGINE=InnoDB DEFAULT CHARSET=utf8 ROW_FORMAT=COMPRESSED COMMENT='小时报表二进制内容';
定时任务生产者
数据库的持久化完成标志着一个完整周期的结束,CAT实时处理报表都是产生小时级别统计,小时级报表中会带有最低分钟级别粒度的统计,在数据库持久化完成之后,我们会调用 m_reportDelegate.createHourlyTask(report) 创建一些定时任务,去创建小时模式、天模式、周模式、月模式等等粒度更粗的视图,为什么这里还会创建小时任务,因为在集群情况下,同一周期下的多张报表可能分散在几台CAT服务器上,这时我们创建小时定时任务去合并报表形成小时视图。
但是,针对不同报表、不同domain,创建的定时任务也不同,有些可能小时模式、天模式、周模式、月模式视图定时任务都有,有些也可能只创建天任务,在解释完以下几个domain的描述之后我们看下定时任务的列表:
- crashLogDomain:客户端崩溃日志埋点,默认有:AndroidCrashLog/iOSCrashLog/MerchantAndroidCrashLog/MerchantIOSCrashLog/ApolloAndroidCrashLog/ApolloIOSCrashLog/TVAndroidCrashLog
- serverFilterDomain:配置serverFilter中过滤的domain,默认有:空/PhoenixAgent/cat-agent/All/FrontEnd/paas/SMS-RECEIVER
- validateDomain:非ServerFilterLog 和 非CrashLog
- ALL:聚合报表,Transaction和Event特有。
- *:所有domain
State比较特殊,他会创建比较多的定时任务,我们单独列在下面:
定时任务在 TaskManager.createTask(...) 中生产,这里就是将需要执行的定时任务插入数据库task表中,以供消费者(TaskConsumer)到时候去表里取定时任务然后执行,表字段如下:
- TABLE `task` (
- `id` int(11) NOT NULL AUTO_INCREMENT,
- `producer` varchar(20) NOT NULL COMMENT '任务创建者ip',
- `consumer` varchar(20) DEFAULT NULL COMMENT '任务执行者ip',
- `failure_count` tinyint(4) NOT NULL COMMENT '任务失败次数',
- `report_name` varchar(20) NOT NULL COMMENT '报表名称, transaction, problem...',
- `report_domain` varchar(50) NOT NULL COMMENT '报表处理的Domain信息',
- `report_period` datetime NOT NULL COMMENT '报表时间',
- `status` tinyint(4) NOT NULL COMMENT '执行状态: 1/todo, 2/doing, 3/done 4/failed',
- `task_type` tinyint(4) NOT NULL DEFAULT '' COMMENT '0表示小时任务,1表示天任务',
- `creation_date` datetime NOT NULL COMMENT '任务创建时间',
- `start_date` datetime DEFAULT NULL COMMENT '开始时间, 这次执行开始时间',
- `end_date` datetime DEFAULT NULL COMMENT '结束时间, 这次执行结束时间',
- PRIMARY KEY (`id`),
- UNIQUE KEY `task_period_domain_name_type` (`report_period`,`report_domain`,`report_name`,`task_type`)
- ) ENGINE=InnoDB AUTO_INCREMENT=42594 DEFAULT CHARSET=utf8 COMMENT='后台任务';
其中producer就是生产定时任务的机器IP,stauts是执行状态,这里TaskManager作为生产者插入的记录状态都是todo=1,task_type指的任务类别,包含下面4种类别:
0-小时任务,有小时任务需求的在生产者中都会被创建,合并CAT服务器集群的多台机器的小时报表。
1-天任务, 对于有天任务需求的,会在当天创建前一天的天视图,
2-周任务,有周任务需求的会创建上周六到这周五的周视图,
3-月任务,有月任务需求的会在每月1号创建上个月的月视图。
当然由于task表的report_period, report_domain, report_name, task_type 是联合唯一键,所以,同一个类型、周期、domain、名称的定时任务,只会插入一条。
- public class TaskManager {
- @Inject
- private TaskDao m_taskDao;
- private static final int STATUS_TODO = 1;
- public static final int REPORT_HOUR = 0;
- public static final int REPORT_DAILY = 1;
- public static final int REPORT_WEEK = 2;
- public static final int REPORT_MONTH = 3;
- public boolean createTask(Date period, String domain, String name, TaskCreationPolicy prolicy) {
- try {
- if (prolicy.shouldCreateHourlyTask()) {
- createHourlyTask(period, domain, name);
- }
- Calendar cal = Calendar.getInstance();
- cal.setTime(period);
- int hour = cal.get(Calendar.HOUR_OF_DAY);
- cal.add(Calendar.HOUR_OF_DAY, -hour);
- Date currentDay = cal.getTime();
- if (prolicy.shouldCreateDailyTask()) {
- createDailyTask(new Date(currentDay.getTime() - ONE_DAY), domain, name);
- }
- if (prolicy.shouldCreateWeeklyTask()) {
- int dayOfWeek = cal.get(Calendar.DAY_OF_WEEK);
- if (dayOfWeek == 7) {
- createWeeklyTask(new Date(currentDay.getTime() - 7 * ONE_DAY), domain, name);
- }
- }
- if (prolicy.shouldCreateMonthTask()) {
- int dayOfMonth = cal.get(Calendar.DAY_OF_MONTH);
- if (dayOfMonth == 1) {
- cal.add(Calendar.MONTH, -1);
- createMonthlyTask(cal.getTime(), domain, name);
- }
- }
- return true;
- } catch (DalException e) {
- Cat.logError(e);
- return false;
- }
- }
- }
定时任务消费者
我们再次回到CatHomeModule的初始化函数中,有如下一段代码,它会读取server.xml中的配置 job-machine="true",用于指定是否开启定时任务消费者线程。
- if (serverConfigManager.isJobMachine()) {
- DefaultTaskConsumer taskConsumer = ctx.lookup(DefaultTaskConsumer.class);
- Threads.forGroup("cat").start(taskConsumer);
- }
线程会每隔1分钟轮训从数据库取状态为todo的定时任务,以及consumer为本机ip,然后状态为doing的定时任务,即上次处理失败,需要重试的,将任务状态都修改为 doing,然后调用 processTask处理定时任务,如果处理失败则间隔一段时间后重试,注意,这里的间隔会阻塞任务线程,超过最大重试次数,状态标为failed,成功则标为done。
- public abstract class TaskConsumer implements org.unidal.helper.Threads.Task {
- @Override
- public void run() {
- String localIp = getLoaclIp();
- while (running) {
- if (checkTime()) {
- Task task = findDoingTask(localIp);
- if (task == null) {
- task = findTodoTask();
- }
- boolean again = false;
- if (task != null) {
- task.setConsumer(localIp);
- if (task.getStatus() == TaskConsumer.STATUS_DOING || updateTodoToDoing(task)) {
- int retryTimes = 0;
- while (!processTask(task)) {
- retryTimes++;
- if (retryTimes < MAX_TODO_RETRY_TIMES) {
- taskRetryDuration();
- } else {
- updateDoingToFailure(task);
- again = true;
- break;
- }
- }
- if (!again) {
- updateDoingToDone(task);
- }
- }
- } else {
- taskNotFoundDuration(); //sleep 2 min
- }
- } else {
- Thread.sleep(60 * 1000);
- }
- }
- this.stopped = true;
- }
- }
processTask(...)处理的核心是将Task交给ReportFacade去构建视图,我们可以认为ReportFacade是一个视图构建工厂,工厂在初始化的时候,从plexus配置中读取所有的任务构建器(TaskBuilder),并将他们装入ReportFacade的成员变量m_reportBuilders中,TaskBuilder是一个接口,有4个方法,buildHourlyTask、buildDailyTask、buildWeeklyTask、buildMonthlyTask,我们从图3可以看到该接口一共有24个实现,当有定时任务交付时,ReportFacade会根据任务名找到具体的任务构建类,然后根据任务是小时、天、周还是月分别调用以上4个方法。
深入详解美团点评CAT跨语言服务监控(八)报表持久化的更多相关文章
- 深入详解美团点评CAT跨语言服务监控(七)消息分析器与报表(二)
CrossAnalyzer-调用链分析 在分布式环境中,应用是运行在独立的进程中的,有可能是不同的机器,或者不同的服务器进程.那么他们如果想要彼此联系在一起,形成一个调用链,在Cat中,CrossAn ...
- 深入详解美团点评CAT跨语言服务监控(一) CAT简介与部署
前言: CAT是一个实时和接近全量的监控系统,它侧重于对Java应用的监控,除了与点评RPC组件融合的很好之外,他将会能与Spring.MyBatis.Dubbo 等框架以及Log4j 等结合,支持P ...
- 深入详解美团点评CAT跨语言服务监控(六)消息分析器与报表(一)
大众点评CAT微服务监控架构对于消息的具体处理,是由消息分析器完成的,消息分析器会轮训读取PeriodTask中队列的消息来处理,一共有12类消息分析器,处理后的结果就是生成各类报表. 消息分析器的构 ...
- 深入详解美团点评CAT跨语言服务监控(四)服务端消息分发
这边首先介绍下大众点评CAT消息分发大概的架构如下: 图4 消息分发架构图 分析管理器的初始化 我们在第一章讲到服务器将接收到的消息交给解码器(MessageDecoder)去做解码最后交给具体的消费 ...
- 深入详解美团点评CAT跨语言服务监控(三)CAT客户端原理
cat客户端部分核心类 message目录下面有消息相关的部分接口 internal目录包含主要的CAT客户端内部实现类: io目录包含建立服务端连接.重连.消息队列监听.上报等io实现类: spi目 ...
- 深入详解美团点评CAT跨语言服务监控(二) CAT服务端初始化
Cat模块 Cat-client : cat客户端,编译后生成 cat-client-2.0.0.jar ,用户可以通过它来向cat-home上报统一格式的日志信息,可以集成到 mybatis.spr ...
- 深入详解美团点评CAT跨语言服务监控(九)CAT管理平台MVC框架
在第2章我们讲到,服务器在初始化CatServlet 之后, 会初始化 MVC,MVC也是继承自AbstractContainerServlet , 同样也是一个 Servlet 容器,这是一个非常古 ...
- 深入详解美团点评CAT跨语言服务监控(五)配置与数据库操作
CAT配置 在CAT中,有非常多的配置去指导监控的行为,每个配置都有相应的配置管理类来管理,都有一个配置名, 配置在数据库或者配置文件中都是以xml格式存储,在运行时会被解析到具体实体类存储.我们选取 ...
- 美团点评CAT监控平台研究
1. 美团点评CAT监控平台研究 1.1. 前言 此文根据我对官方文档阅读并记录整理所得,中间可能会穿插一些自己的思考和遇坑 1.2. 简介 CAT 是基于 Java 开发的实时应用监控平台,为美团点 ...
随机推荐
- Capjoint
前期知识储备: 现如今的全球台站分布情况:在全球大陆的分布并不均衡.在美国加利福尼亚.日本.中国台湾等地区,台站分布密集,数字化程度高.然而在世界很多地区发生的地震,往往在300km范围内仅有2到3个 ...
- 二分查找(lower_bound和upper_bound)
转载自:https://www.cnblogs.com/luoxn28/p/5767571.html 1 二分查找 二分查找是一个基础的算法,也是面试中常考的一个知识点.二分查找就是将查找的键和子数组 ...
- Html.DropDownList()的用法
页面代码如下: <%= Html.DropDownList("Category", ViewData["Categories"] as SelectLis ...
- AVD Manager 模拟器使用
一.模拟器配置 1.双击启动AVD Manager,进入配置界面 2.点Create按钮创建 3.配置模拟器基本信息 --AVD Name:设备名称,自己定义一个,用英文(不要用中文) --Devic ...
- 常见无线DOS攻击
记录下自己最近一段时间对无线渗透学习的笔记. 无线DOS就是无线拒绝服务攻击.主要包括以下几种攻击类型:Auth Dos攻击.Deauth Flood攻击.Disassociate攻击及RF干扰攻击等 ...
- php发送邮件(TP5)
先百度搜索phpmailer 下载phpmailer函数包 放到/vendor/下,这是tp5扩展类库目录 然后你需要一个已经开启了SMTP服务的邮箱,作为发送者邮箱,QQ邮箱163邮箱是需要自己开 ...
- JAVA数组与List相互转换
1.数组转成List 数组转成List可以用方法 :Arrays.asList,一起来了解一下 System.out.println(Arrays.asList(new String[] { &quo ...
- paddle——docker实践
Docker image阅读:https://github.com/PaddlePaddle/book/blob/develop/README.cn.md docker run -d -p 8888: ...
- easyui的DataGrid的单元格添加ProgressBar进度条
网上的搜到的好多不能用,官方easy-ui使用进度条 <div id="p" class="easyui-progressbar" ></di ...
- 区块链与Git版本工具的比较
区块链与Git版本工具的比较 来源:http://www.jianshu.com/p/b96b98983df6 作者: 梁波林 相同点: 1. 分布式存储方案 2. 链式数据 3. 去中心化 4. ...