先创建一个文件:vim hi 取第2个字段和第3个字段: awk '{print $2,$3}' hi     注意{}中的,逗号会在输出的时候转变为空格 加入字符说明: 显示整行: 指定字段分隔符:-F 内建变量:NF     NF:字段数量,  $NF代表最后一个字段 NR:行数 /regular expression/: 仅处理能够被此处的模式匹配到的行 取反:awk '!/^john/{print $2}' hi 上面的语句表示如果第三个字段大于等于500,则取第一和第三个字段 判断最后…
wc wc命令用于报告文本文件的一些统计计数,例如行数.单词数.字节数等. 语法如下. wc [OPTION]... [FILE]... wc [OPTION]... --files0-from=F --files0-from=F:这个选项几乎没见过有人使用,我也看不懂,因此就忽略掉了. 默认情况下显示3个计数,从左往右分别是行数.单词数和字节数. [root@C7 ~]# wc /etc/passwd /etc/passwd 如果被统计的文件数大于1,那么还会显示一行总计. [root@C7…
cut cut是一个选取命令,就是将一段数据经过分析,取出我们想要的. 一般来说,选取信息通常是针对"行"来进行分析的,并不是整篇信息分析的. -c : 以字符为单位进行分割. cut -c1-3 test.txt:打印第1个到第3个字符 cut -c5- test.txt:打印从第5个字符开始到结尾 -d : 自定义分隔符,默认为制表符. cut -d';' -f 1 -f : 用-d将文本分隔成一段一段后,-f用来取出第几段 cut -f1 test.txt:取出一行分割后的第一个…
一.三种IO设备 程序:数据+指令 或 数据结构+算法程序必须能够读入输入然后经过加工来产生结果,其接受的输入可以是变量.数组.列表.文件等等,生产出来的结果可以使变量.数组.列表.文件等等.即:程序都有读入数据和输出数据的需求读入数据:input输出数据:output 一.标准文件描述符 linux系统将每个对象当作文件处理,这包括输入和输出进程.linux用文件描述符(file descriptor)来标识每个文件对象.文件描述符是一个非负整数,可以唯一标识会话中打开的文件.每个进程一次最多…
文本处理工具:    egrep:        支持扩展的正则表达式实现类似于grep文本过滤功能:grep -E        egrep [OPTIONS] PATTERN [FILE...]        egrep [OPTIONS] [-e PATTERN | -f FILE] [FILE...]            选项:                -i,-o,-v,-q,-A,-B,-C                -G:支持基本正则表达式 扩展正则表达式的元字符:  …
文本查看及处理工具:wc, cut, sort, uniq, diff, patch wc:word count wc [OPTION]... [FILE]... -l: lines -w:words -c: bytes cut: cut OPTION... [FILE]... OPTION: -d CHAR:以指定的字符为分隔符: -f FIELDS:挑选出的字段: #:指定的单个字段: #-#:连续的多个字段: #,#:离散的多个字段: sort: sort [OPTION]... [FIL…
命令目录,查看某一个命令可点击直接跳转: 文件查看 cat tac rev more less 按行截取 head tail 转化内容 tr 按列操作 cut paste 分析文本 wc sort uniq diff.patch 按关键字过滤 grep 文件查看 cat 查看文件,从第一行到最后一行全部显示. 参数: 示例: tac 从后往前显示文件,和cat相反. 示例: rev reverse lines水平反转每一行里的字母. 示例1,水平翻转文件: 示例2,倒序+水平翻转文件: more…
Linux上文本处理工具虽不少,像cut,tr,join,split,paste,sort,uniq,sed,awk这些经典工具让人眼花缭乱,而且都太老了,使用方法都不太人性化,尤其awk,语法简直反人类:所以perl,python,ruby等脚本语言相当热火,我倾向用python,但处理一些简单任务python写的还是比较麻烦,无法一行命令解决,直到我发现了它-Pyp! Pyp(Pyed piper)–一个python写的类似sed,awk的文本处理工具,简单优雅而强大~ 安装: ubuntu…
grep.sed和awk都是文本处理工具,虽然都是文本处理工具单却都有各自的优缺点,一种文本处理命令是不能被另一个完全替换的,否则也不会出现三个文本处理命令了.只不过,相比较而言,sed和awk功能更强大而已,且已独立成一种语言来介绍. grep:文本过滤器,如果仅仅是过滤文本,可使用grep,其效率要比其他的高很多: sed:Stream EDitor,流编辑器,默认只处理模式空间,不处理原数据,如果你处理的数据是针对行进行处理的,可以使用sed: awk:报告生成器,格式化以后显示.如果对处…
Basic Text Analysis with Command Line Tools in Linux | William J Turkel 这篇文章非常清楚的介绍了如何使用Linux的命令行工具进行文本分析,统计一本书中每个词出现的频率. 使用了如下的命令: wget file head tail cp ls less sed wc grep tr sort uniq 对于Windows用户,可以通过cygwin在Windows下安装linux的这些强大的命令.…