[sh]uniq-sort-awk】的更多相关文章

概述 我们日常应用中都离不开日志.可以说日志是我们在排查问题的一个重要依据.但是日志并不是写了就好了,当你想查看日志的时候,你会发现线上日志堆积的长度已经超越了你一行行浏览的耐性的极限了.于是,很有必要通过一些手段来高效地辅助你来快速的从日志中找到你要找的问题.本文通过一个从项目中衍生出来的例子从查找日志,筛选日志和统计日志3个方面层层递进来简述日志文件查看中一些有用的手段.(注:在linux环境下) 目录 0.查找关键日志grep 1.查找关键日志grep 2.精简日志内容 sed 3.对记录…
sort -u 和 uniq都能起到删除重复信息的功能,那么他们的区别究竟在哪呢? $ cat test jason jason jason fffff jason 下面分别执行三个命令 :sort -u test sort -u test fffff jason : uniq test $uniq test jason fffff jason : sort test|uniq $sort test |uniq fffff jason 从上面三个命令我们很容易看出他们之间的区别.uniq所谓的重…
源文件为: [root@luo5 wangxx]# cat -v luo.txt J LuoSoutth jfsaNanjing,china Y ZhangVictory UniversityNejflja,Australia D HouBeijing UniversityMelhouse,china 实现排序 [root@luo5 wangxx]# cat luo.txt |awk -v RS="" '{gsub("\n","@");print…
(1)统计文件中出现次数最多的前10个单词 #ps -ef > ps.file #cat ps.file | awk ‘{print $1}’ | sort | uniq -c | sort -n -r -k1 | head -10 (2)输出至少出现3次的的单词 # cat ps.file | awk '{print $1}' | sort | uniq -c | sort -n -r -k1 | awk '{if ($1 > 3){print $0} }'…
实例cat logt.log|sort -s -t '-' -k1n |awk '{print $1;}'|uniq -c|sort -k1nr|head -100 统计文件中出现次数最多的前10个单词 使用linux命令或者shell实现:文件words存放英文单词,格式为每行一个英文单词(单词可以重复),统计这个文件中出现次数最多的前10个单词. cat words.txt | sort | uniq -c | sort -k1,1nr | head -10 主要考察对sort.uniq命令…
https://blog.csdn.net/qq_28766327/article/details/78069989 在服务器开发中,我们经常会写入大量的日志文件.有时候我们需要对这些日志文件进行统计.Linux中我们可以利用以下命令简单高效的实现这一功能. 需要用到的命令简介 cat命令 cat命令主要有三大功能 1.一次显示整个文件 cat filename 2.创建一个文件 cat > fileName 3.将几个文件合并为一个文件 cat file1 file2 > file 参数: …
cut语法cut [-bn] [file]cut [-c] [file]cut [-df] [file] -b :以字节为单位进行分割.这些字节位置将忽略多字节字符边界,除非也指定了 -n 标志.-c :以字符为单位进行分割.-d :自定义分隔符,默认为制表符.-f :与-d一起使用,指定显示哪个区域.-n :取消分割多字节字符.仅和 -b 标志一起使用.如果字符的最后一个字节落在由 -b 标志的 List 参数指示的范围之内,该字符将被写出:否则,该字符将被排除 sort语法sort [-bc…
wc awk, sort, uniq grep…
以前我个人的观念是,在线上运行的东西尽量不要记什么流水日志. 但是后来我变了,发现在线上记日志是一个绝对有必要的东西,尤其是在当下很流行的微服务的推动下,没有日志的帮助,犹如一个睁眼瞎,排查问题基本靠猜,这可不行. 那就打印记录每次的访问日志,尤其是访问接口时的参数及返回数据和耗费时间等,这是对自己将问题抛给上层及性能优化的依据.但是日志量应该是非常大的,一定要注意及时清理. 那么问题来了,当发现问题时,如何快速定位到错误的地方就很重要了. 日志样例如下(某次访问的产生的日志): [-- ::]…
$ cat file liw liw liw hdsui mdksjd liw $ cat file | uniq -u # 只删除相邻的,不保留重复行 hdsui mdksjd liw $ cat file | awk '!a[$1]++' # 不用排序,保留重复行中的一行 liw hdsui mdksjd…