古怪的需求 在实习的公司碰到一个古怪的需求:在一台服务器上写日志文件,每当日志文件写到一定大小时,比如是1G,会将这个日志文件改名成另一个名字,并新建一个与原文件名相同的日志文件,再往这个新建的日志文件里写数据:要求写一个程序能实时地读取日志文件中的内容,并且不能影响写操作与重命名操作. RandomAccessFile类中seek方法可以从指定位置读取文件,可以用来实现文件实时读取.JDK文档对RandomAccessFile的介绍 Instances of this class suppor…
开发过Java的应该都知道Log4j的重要性,尤其是在开发测试中,能够让开发和测试人员方便找的bug,Python也有和Log4j相同功能的库那就是logging库,其功能非常强大,在开发测试中很方便,我是将其作为工具使用的,代码syslog.py如下: #!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2017/11/27 15:39 # @Desc : 系统日志,主要用来打印测试 # @File : syslog.py # @So…
1 RDD编程实战案例一 数据样例 字段说明: 其中cid中1代表手机,2代表家具,3代表服装 1.1 计算订单分类成交金额 需求:在给定的订单数据,根据订单的分类ID进行聚合,然后管理订单分类名称,统计出某一天商品各个分类的成交金额,并保存至Mysql中 (1)法一,将json数据解析出来,直接使用 object IncomeKpi { private val logger: Logger = LoggerFactory.getLogger(IncomeKpi.getClass) def ma…
参考: http://www.cnblogs.com/ggjucheng/archive/2013/01/13/2856896.html 当时需求:查看系统日志,统计系统的处理时间(从请求进去系统到系统返回) 日志文件: 1.log 开始处理: 1. 将日志中的关键行(初始.结束.关键节点)打印出来/输出到文件(后添加:> 2.log): cat 1.log | grep key  //根据关键字输出 cat 1.log | egrep '(start handle)+|(end handle)…
配置hadoop环境 配置flume环境 配置flume文件 D:\Soft\apache-flume-1.8.0-bin\conf 将 flume-conf.properties.template 重新命名为  hdfs.properties # 组装 agenta1.sources = s1a1.channels = c1a1.sinks = k1 # 配置source:从目录中读取文件a1.sources.s1.type = spooldira1.sources.s1.channels =…
开头总结: 学习了Linux中的文件搜索命令find和locate,系统搜索命令whereis 和which ,字符串搜索命令grep,find和locate的差别和使用方法格式,什么是path环境变量以及其优点,whereis和which的使用方法,差别在于查询系统命令内容的不同,grep和find的差别.为什么要引入通配符? 什么情况下用通配符还是正則表達式? Locate文件搜索命令: 1)格式: Locate [文件名称] 2)更新数据库 updatedb 优点: 相对于find命令来说…
from collections import deque def search(lines, pattern, history=5): previous_lines = deque(maxlen=history) for line in lines: if pattern in line: yield line,previous_lines previous_lines.append(line) if __name__ == '__main__': with open('log.txt','r…
DataSet ds = XmlHelper.GetDataSetByXml(AppDomain.CurrentDomain.BaseDirectory + "/Config/ConfigName.xml");//取得xml文件 DataTable dt = ds.Tables["table_Name"];//取得xml文件的节点内容 DataRow[] dr = dr = ds.Tables["table_Name"].Select("…
wc -l  a.txt  统计a.txt 行数 查看文件a.txt的第190行到196行, sed -n '190,196p' a.txt  如果查看某一行用 sed -n 'a,bp' a.txt  读取自第a行到第b行的数据…
思路: 在docker搭建elasticsearch与kibana来展示日志,在微服务部署的机子上部署logstash来收集日志传到elasticsearch中,通过kibana来展示,logstash使用读取本地文件的方式来获取日志内容 1.在192.168.1.18机子中使用 docker-compose 在docker中部署 elasticsearch与kibana docker-compose.yml脚本如下: version: '3' services: elasticsearch:…