流编辑器:sed

语法:sed [-hnV][-e<script>][-f<script文件>][文本文件]

1、参数:

  • -e<script>或--expression=<script> 以选项中指定的script来处理输入的文本文件。
  • -f<script文件>或--file=<script文件> 以选项中指定的script文件来处理输入的文本文件。
  • -h或--help 显示帮助。
  • -n或--quiet或--silent 仅显示script处理后的结果。
  • -V或--version 显示版本信息。
  • -i 直接编辑原文件,在原文件中操作

例子:
sed -i 's/原字符串/新字符串/' file   #原文件中仅替换每行首次匹配到的原字符串,若一行有多个该字符串,只有第一个被替换(1行只替换1次)
sed -i 's/原字符串/新字符串/g' file     #在原文件中替换,后缀 g 意味着会替换每一处匹配,而不是每一行中第一次匹配

sed  's/原字符串/新字符串/g' file     #不加 -i 参数,将替换后的文本都打印出来,但原文件不变

sed  's/原字符串/新字符串/g' file > newfile    #同上,替换后的文本打印到新文件中

sed -i '/^$/d' file   #在原文件中移除空白行,^$表示空白行,d表示将匹配的样式移除,注意:由空格组成的行不能算空白行

sed -i 's/max_execution_time = 30/max_execution_time = 300/g'  /etc/php/php.ini    #修改php配置文件的配置

sed -i "s/原字符串/新字符串/g" `grep 原字符串 -rl ./`    #整个目录下全局搜索替换
sed -i "s/test/newstr/g" `grep test -rl ./myfile`    #将当前myfile目录下所有文件中所有的test字符串全部替换为newstr字符串

文本混乱与恢复正常(替换空格,换行符,制表符等)
cat test.js | sed 's/;/;\n/g; s/{/{\n\n/g; s/}/\n\n}/g'        # s/;/;\n/g将;替换为\n; s/{/{\n\n/g将{替换为{\n\n s/}/\n\n/g将}替换为\n\n}
cat test.js | sed 's/;/;\n/g' |sed 's/{/{\n\n/g' | sed 's/}/\n\n}/g'   #同上
sed 's/ [^.]*mobbile phones[^.]*\.//g' test.txt      #移除文件test.txt中包含单词“mobile phones”的句子

2、动作:
  • a :新增, a 的后面可以接字串,而这些字串会在新的一行出现(目前的下一行)~
  • c :替换, c 的后面可以接字串,这些字串可以取代 n1,n2 之间的行!
  • d :删除,因为是删除啊,所以 d 后面通常不接任何东西;
  • i :插入, i 的后面可以接字串,而这些字串会在新的一行出现(目前的上一行);
  • p :打印,亦即将某个选择的数据印出。通常 p 会与参数 sed -n 一起运行~
  • s :替换(匹配局部替换),可以直接进行取代的工作哩!通常这个 s 的动作可以搭配正规表示法!例如 1,20s/old/new/g 就是啦!

新增 a

sed -i '2a testContent' test.txt     #在第 2 行后面新增一行内容

sed -i '1,3a testContent' test.txt   #在原文的第 1~3 行后面各新增一行内容

sed -i '$a This is a test' test.txt   #在文件末尾加一行 This is a test,$表示最后一行

sed -e '4 a newline' test.txt   #在4行之后新增一行

sed -e '4 a newline\nnewline2' test.txt  #在4行之后新增两行,\n 表示换行,增加3行同理,加上\n接上内容

替换 c

sed -i '2c testContent' test.txt     #将第 2 行内容整行替换

sed -i '1,3c testContent' test.txt   #将第 1~3 行内容替换成一行指定内容

删除 d

sed -i '2d' test.txt     #删除第 2 行

sed -i '1,3d' test.txt   #删除第1~3行

sed -i 's/^ *//' test.txt  #删除行首空格

sed -i 's/^[[:space:]]*//' test.txt   #去掉test.txt中每行行首的制表符和空格

sed -i 's/^[0-9]* *//' test.txt   #去掉test.txt每行行首的数字

插入 i

sed '2i testContent' test.txt     #在第 2 行前面插入一行内容

sed '1,3i testContent' test.txt   #在原文的第 1~3 行前面各插入一行内容

打印 p

sed '2p' test.txt          #重复打印第 2 行

sed '1,3p' test.txt        #重复打印第1~3行

sed -n '2p' test.txt       #只打印第 2 行

sed -n '1,3p' test.txt     #只打印第 1~3 行

sed -n '/user/p' test.txt  #打印匹配到user的行,类似grep

sed -n '/user/!p' test.txt  #!!!反选,打印没有匹配到user的行

sed -n 's/old/new/gp' test  #只打印匹配替换的行

sed -n '1~2p' test.txt   #打印奇数行

sed -n '2~2p' test.txt   #打印偶数行

sed -n 'p;n' test.txt #打印奇数行

sed -n 'n;p' test.txt    #打印偶数行

替换 s

sed -i 's/old/new/' test.txt      #匹配每一行的第一个old替换为new

sed 's/[ ][ ]*/ /g' test.txt  #替换两个或多个空格为一个空格

sed 's/[ ][ ]*/:/g' test.txt  # 替换两个或多个空格为分隔符:

sed 's/[[:space:]][[:space:]]*/ /g'  test.txt   #如果空格与tab共存时替换成空格
sed 's/[[:space:]][[:space:]]*/:/g'  test.txt   #如果空格与tab共存时替换成分隔符:

sed -i 's/old/new/gi' test.txt    #匹配所有old替换为new,g 代表一行多个,i 代表匹配忽略大小写

sed -i '3,9s/old/new/gi' test.txt #匹配第 3~9 行所有old替换为new

数据流工具:awk

语法

awk [选项参数] 'script' var=value file(s)

awk [选项参数] -f scriptfile var=value file(s)

选项参数:

    • -F fs or --field-separator fs
      指定输入文件折分隔符,fs是一个字符串或者是一个正则表达式,如-F:。
    • -v var=value or --asign var=value
      赋值一个用户定义变量。
    • -f scripfile or --file scriptfile
      从脚本文件中读取awk命令。
    • -mf nnn and -mr nnn
      对nnn值设置内在限制,-mf选项限制分配给nnn的最大块数目;-mr选项限制记录的最大数目。这两个功能是Bell实验室版awk的扩展功能,在标准awk中不适用。
    • -W compact or --compat, -W traditional or --traditional
      在兼容模式下运行awk。所以gawk的行为和标准的awk完全一样,所有的awk扩展都被忽略。
    • -W copyleft or --copyleft, -W copyright or --copyright
      打印简短的版权信息。
    • -W help or --help, -W usage or --usage
      打印全部awk选项和每个选项的简短说明。
    • -W lint or --lint
      打印不能向传统unix平台移植的结构的警告。
    • -W lint-old or --lint-old
      打印关于不能向传统unix平台移植的结构的警告。
    • -W posix
      打开兼容模式。但有以下限制,不识别:/x、函数关键字、func、换码序列以及当fs是一个空格时,将新行作为一个域分隔符;操作符**和**=不能代替^和^=;fflush无效。
    • -W re-interval or --re-inerval
      允许间隔正则表达式的使用,参考(grep中的Posix字符类),如括号表达式[[:alpha:]]。
    • -W source program-text or --source program-text
      使用program-text作为源代码,可与-f命令混用。
    • -W version or --version
      打印bug报告信息的版本。

工作方式:

awk 'BEGIN{ PRINT "start" } pattern { commands } END{print "END" } file

首先执行BEGIN语句块,然后从文件或stdin中读取一行,然后执行pattern{ commands }。直到文件全部读取完毕。读到输入流末尾时,执行END{ commands } 语句块。三个语句块都是可选的。如果没有提供pattern语句块则默认打印每一个读取到行。

awk的特殊变量:
NR:表示记录数量,在执行过程中对应于当前行号。
NF:表示字段数量,在执行过程中相对于当前行的字段数。
$NF:表示当前行的最后一个字段。$(NF-1)表示当前行的倒数第二个字段。依次类推
$0:这个变量包含执行过程中当前行的文本内容。
$1:这个变量包含第一个字段的文本内容。
$2:这个变量包含第二个字段的文本内容。依次类推。

FNR :与NR类似,不过多文件记录不递增,每个文件都从1开始
\t:制表符
\n :换行符
FS:BEGIN时定义分隔符
RS:输入的记录分隔符, 默认为换行符(即文本是按一行一行输入)
~ :匹配,与==相比不是精确比较
!~:不匹配,不精确比较
==:等于,必须全部相等,精确比较
!= :不等于,精确比较
&&:逻辑与
||:逻辑或
+:匹配时表示1个或1个以上
/[0-9][0-9]+/ :两个或两个以上数字
/[0-9][0-9]*/ :一个或一个以上数字
FILENAME:文件名
OFS:输出字段分隔符, 默认也是空格,可以改为制表符等
ORS :输出的记录分隔符,默认为换行符,即处理结果也是一行一行输出到屏幕
-F'[:#/]':定义三个分隔符
 
例子:

awk 'BEGIN { i=0 } { i++ } END{ print i }' filename    #逐行读取文件并打印行数
echo -e "line1\nline2" | awk 'BEGIN{ print "Start" } { print } END { print "END" } '
echo | awk '{ var1="v1"; var2="v2"; var3="v3"; print var1"-"var2"-"var3;}'
echo -e "line1 f2 f3\nline2 f4 f5\nline3 f6 f7" | awk '{ print "Line no:"NR",No of fields:"NF, "$0="$0,"$1="$1,"$2="$2,"$3="$3 }'
awk '{ print $3,$2 }' file   #打印文件中每一行的第2和第3个字段。
awk 'END{ print NR }' file   #统计文件中的行数,只加END语句块表示文件执行到最后一行时再输出行号
awk 'NR < 5' file          #打印文件中行号小于5的行
awk 'NR==2,NR==5' file    #打印文件中行号在2到5之间的行
awk '/linux/' file        #打印文件中包含样式linux的行(样式可以使用正则表达式)
awk '1/linux/' file        #打印文件中不包含包含样式linux的行
awk -F: '{ print $NF }' /etc/passwd #读取并打印/etc/passwd文件的内容,设置定界符为":",默认的定界符为空格
var1='test'; var2='text'                #(1)外部变量
echo | awk '{ print v1,v2 } v1=$var1 v2=var2     #(2)打印多个从标准输入传给awk的外部变量
awk '{ print v1,v2 }' v1=$var1 v2=var2 filename #(3)输入来自文件
cat test.txt | getline output             #将cat的输出读入变量output中。
awk 'BEGIN { FS=":" } { print $NF }' /etc/passwd #BEGIN语句块中则使用FS="delimiter"设置输出字段的定界符
awk '{arr[$1]+=1 }END{for(i in arr){print arr[i]"\t"i}}' FILE_NAME | sort -rn    #统计每个单词的出现频率并排序
seq 5 | awk 'BEGIN{ sum=0;print "Summation:" } { print $1"+"; sum+=$1 } END{ print "=="; print sum }'    #将每一行第一个字段的值按照给定形式进行累加
echo | awk '{ "grep root /etc/passwd" | getline cmdout; print cmdout }'    #通过getline将外部shell命令的输出读入变量cmdout。变量cmdout包括命令grep root /etc/passwdde 的输出,然后打印包含root的行。

awk中使用循环与awk的内建函数
for(i=0;i<10;i++){ print $i; } 或者 for( i in array ) { print array[i]; }
length(string):返回字符串的长度
index(string ,search_string):返回search_string在字符串中出现的位置。
split(string, array, delimiter):用界定符生成一个字符串列表,并将该列表存入数组
substr(string, start-position, end-position):在字符串中用字符起止偏移量生成子串,并返回该子串。
sub(regex, replacement_str, string):将正则表达式匹配到的第一处内容替换成replacement_str。
gsub(regex, replacement_str, string):将正则表达式匹配到的所有内容替换成replacement_str。
match(regex ,string):检查正则表达式是不能够匹配字符串,若能,返回非0值;否则,返回0.

cat access.log | awk '{ if($9=200) print $7;}'     #分析nginx访问日志,awk不加 -f 参数表示使用空格(默认的分词字符)拆分该行,$9表示第9个字段(也就是HTTP CODE),$7表示第7个字段,表示用户访问的文件

awk '{print $1}' access.log |sort|uniq -c|sort -nr|head -10   #分析access.log获得访问前10位的ip地址

awk -F '[,:]' '{if($6==140) print $0;}' test.log   #对test.log中每行用“,”和“:”分割,并打印出分割后第6个字段等于140的行

cat *_login.log | awk -F[,:] '{if($24<1541260800) print $24;}' | wc -l   #统计所有login日志中时间戳(拆分后第24个字段)小于1541260800的行数

awk -F: '{print $15}' test.log | awk -F, '{print $1}' | awk '{for(i=0;i<NF;i++) sum+=$i;}END{print sum}'   #对test.log的json行先用“:”分割再用“,”分割,再对某个字段累加

awk -F, '{print $14}' test.log | awk -F: '{print $2}' | awk '{for(i=0;i<NF;i++) sum+=$i;}END{print sum}'   #对test.log的json行先用“,”分割再用“:”分割再对某个字段累加

awk -F '[,:]' '{print $28}' test.log | awk '{for(i=0;i<NF;i++) sum+=$i;}END{print sum}'   #对test.log的json行分别用“,”和“:”分割后再对某个字段累加

awk -F[:,] '{print $28;}' pay.log | awk -F\" '{print $2;}' | awk '{for(i=0;i<NF;i++) sum+=$i;}END{print sum}'    #作用同上,在拆分后字段还包含双引号的情况下,再次拆分,获取数字再累加

---------------------------------------------------------------------------------------------------------------------------------------

文件:test.log 内如如下:

{"sid":1,"cid":1,"channel":140,"zid":0,"uid":"140524293334","role_id":"100252","goods_id":7,"cny":110000,"eventtime":1540244075}

{"sid":1,"cid":1,"channel":140,"zid":0,"uid":"140524293334","role_id":"100252","goods_id":7,"cny":120000,"eventtime":1540244075}

命令:

awk -F ':' '{print $9}' test.log | awk -F ',' '{print $1}'    #先使用 “:”为分隔符分割test.log每一行,然后获取第9个字段,再用“,”为分隔符分割字符串,再取第一个字段。

结果:

110000

120000

若是要统计该字段的累加数:

awk -F ':' '{print $9}' test.log | awk -F ',' '{print $1}' | awk '{for(i=1;i<=NF;i++) sum+=$i;} END{print sum}'

结果:

230000

----------------------------------------------------------------------------------------------------------------------------------------

替换工具:tr

语法

tr [-cdst][--help][--version][第一字符集][第二字符集]
tr [OPTION]…SET1[SET2]

参数:

  • -c, --complement:反选设定字符。也就是符合 SET1 的部份不做处理,不符合的剩余部份才进行转换
  • -d, --delete:删除指令字符
  • -s, --squeeze-repeats:缩减连续重复的字符成指定的单个字符
  • -t, --truncate-set1:削减 SET1 指定范围,使之与 SET2 设定长度相等
  • --help:显示程序用法信息
  • --version:显示程序本身的版本信息

例子:

echo 12345 | tr '0-9' '9876543210' #加密
echo 87654 | tr '9876543210' '0-9' #解密
echo "Hello 123 world 456" | tr -d '0-9' #使用-d将stdin中的数字删除并打印出来
cat test.txt | tr -d '0-9' #同上
echo "hello 1 char 2 next 3 " | tr -d -c '0-9 \n' #参数-c是使用补集。删除stdin中的所有数字和换行符之外的字符(这些字符是'0-9 \n'这个集合的补集)
echo "this is a test !" | tr -s ' ' #参数-s压缩多个空格为单个
------------------------------------------------
tr可以像使用集合一样使用各种不同的字符类:
alnum:字母和数字
alpha:字母
cntrl:控制(非打印)字符
digit:数字
graph:图形字符
lower:小写字母
print:可打印字符
punct:标点符号
space;空白字符
upper:大写字母
xdigit:十六进制字符
使用方式:
tr [:class:] [:class:]
例如:
tr '[:lower:]' '[:upper:]' #将所有小写字母换成大写字母
----------------------------------------------------

linux学习:sed与awk与tr用法整理的更多相关文章

  1. linux学习:文件处理相关命令用法整理(正则表达式)

    指令:ls.cat.du.rename.dirname.basename.sort.diff.seq.head.tail.tree.chmod.cut.paster.正则 一:统计文件大小,行数,字符 ...

  2.  linux命令sed与awk是干什么用的,怎么用?

    非常强大的文本操纵工具,sed,awk,grep 这个三个命令 都是操作文本文件的unix系统有几个非常命令的特点:1. 对于内核而言,unix文件都是字节序列.io设备也是文件.2. 至于文件的含义 ...

  3. Linux之sed、awk

    Linux 之AWK 命令 简介 awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在对数据分析并生成报告时,显得尤为强大. 简单来说awk就是把文件逐行的读入,以空格默认分隔 ...

  4. Linux(8):linux三剑客sed和awk & Shell 编程(1)

    linux 三剑客 之 sed # sed 是什么? # sed : 字符流编辑器 Stream Editor: sed 擅长 替换.取行等 # sed 的功能与版本: 处理纯文本文件.日志.配置文件 ...

  5. Linux学习sed命令

    sed 是一种在线编辑器,它一次处理一行内容.处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”(pattern space),接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送 ...

  6. linux学习——sed工具

    命令格式: sed [-nefr] [动作] 1.sed可以分析标准输入(STDIN)的数据,然后将数据处理后,再将他输出到标准输出(STDOUT),他有替换.删除.新增.选定特定行等处理功能.sed ...

  7. 每日linux命令学习-sed

    Linux的文本处理实用工具主要由sed和awk命令,二者虽然略有差异,但都使用正则表达式,默认使用标准I/O,并且使用管道命令可以将前一个命令的输出作为下一个命令的输入.笔者将在本节学习sed命令. ...

  8. Linux文本三剑客超详细教程---grep、sed、awk

    awk.grep.sed是linux操作文本的三大利器,合称文本三剑客,也是必须掌握的linux命令之一.三者的功能都是处理文本,但侧重点各不相同,其中属awk功能最强大,但也最复杂.grep更适合单 ...

  9. linux学习:特殊符号,数学运算,图像与数组与部分终端命令用法整理

    指令:let.expr.array.convert.tput.date.read.md5.ln.apt.系统信息 一:特殊符号用法整理 系统变量 $# 是传给脚本的参数个数 $0 是脚本本身的名字 $ ...

随机推荐

  1. spring boot打包

    1.application继承SpringBootServletInitializer  重写configure方法如下图 2.去掉项目中多余的main方法 3.将pom.xml打包改为war包 4. ...

  2. Android应用程序国际化

    前情提要 在Android应用程序中, 可以轻松更改语言, 以适应国际化标准 一些用户拥有多种语言习惯, 因此, 应用程序不能依赖设备默认语言环境, 必须提供更改显示语言的程序功能 本文章探寻持久化语 ...

  3. SpringMVC中的数据绑定(也就是参数的接收)

    spirngMVC中的数据绑定类型,分为默认数据类型,简单数据类型,pojo类型,包装的pojo类型,绑定数组类型,绑定集合类型,还有自定定义数据绑定. 例如默认数据类型的绑定@RequestMapp ...

  4. WPS或xls 数据分列 清洗

    一 .一般分离 时间:2017年11月27日14:55:12 数据如下: 501陈**:田莨铺58 502陈**:田莨铺58 503陈**.六麻杨冲58元 504陈**.石脚哗.200元 505陈** ...

  5. 在Linux中调试段错误(core dumped)

    在Linux中调试段错误(core dumped) 在作比赛的时候经常遇到段错误, 但是一般都采用的是printf打印信息这种笨方法,而且定位bug比较慢,今天尝试利用gdb工具调试段错误. 段错误( ...

  6. .Net Core---- 自带Json返回日期带T格式 解决

    前段时间再做core的列表显示中(前台代码是在.net core bootstrap集成框架上的(这是效果浏览地址:http://core.jucheap.com[效果地址来自:http://blog ...

  7. VS中展开和折叠代码,还有其他快捷操作

    [转]VS中展开和折叠代码   VS2005代码编辑器的展开和折叠代码确实很方便和实用.以下是展开代码和折叠代码所用到的快捷键,很常用: Ctrl + M + O: 折叠所有方法 Ctrl + M + ...

  8. Windows安装activemq

    1.Windows下载解压就可以了,官网:http://activemq.apache.org/ 8161查看端口 61616消息服务端口 2.浏览器访问localhost:8161测试 3.可以在c ...

  9. Storm介绍及安装部署

    本节内容: Apache Storm是什么 Apache Storm核心概念 Storm原理架构 Storm集群安装部署 启动storm ui.Nimbus和Supervisor 一.Apache S ...

  10. 会话技术、Cookie技术与Session技术

    一.会话技术  1. 存储客户端状态 会话技术是帮助服务器记住客户端状态(区分客户端)的.  2. 会话技术 从打开一个浏览器访问某个站点,到关闭这个浏览器的整个过程,称为一次会话.会话技术就是记录这 ...