shell 删除重复文件脚本】的更多相关文章

摘自 <Linux Shell脚本攻略>一书,例子在109页,原理在110页,原理讲解的很好哦! 需要了解awk命令.xargs,脚本中所用的命令在Linux Shell脚本攻略一书中都有讲解. #!/bin/bash ls -lS --time-style=long-iso | awk '         BEGIN {getline; getline;                     name1=$8; size=$5                }          {    …
查了几十个网页,找到这个接近满意的解决方案http://unix.stackexchange.com/questions/146197/fdupes-delete-files-aft... 不过正则里面的叹号好像不能起到清除空行的效果,改为d;fdupes --recurse A/ B/ | sed '/^A/d; /^$/d; s/.*/"&"/' | xargs rm 但还有个小问题,如果A里面有重复的文件,但这文件不在B中,fdupes也是会列为结果,导致误删,要再想想…
#!/bin/bash #查找并删除重复文件,每个文件只保留1份 ls -LS --time-style=long-iso | awk 'BEGIN { getline; getline; name1=$8; size=$5 } { name2=$8 if(size==$5) { "md5sum "name1| getline;csum1=$1; "md5sum "name2 | getline; csum2=$1; if ( csum1==csum2 ) { pr…
在Linux系操作系统中查找并删除重复文件的方法的确有很多,不过这里介绍的是一款非常简单实用的软件FSlint.FSlint是一个重复文件查找工具,可以使用它来清除不必要的重复文件,笔者经常使用它来释放Linux系统中的磁盘空间. FSlint同时具有GUI和CLI模式.因此,对于新手来说,这是一个用户友好的工具.FSlint不仅可以找到重复项,还可以用于找到错误的符号链接.错误的名称.临时文件.错误的IDS.空目录和未剥离的二进制文件等. 安装FSlint archlinux: $ yay -…
啥也不说了,直接上源码 #! /usr/bin/env python #coding=utf-8 import os import md5 import time def getmd5( filename ): ''' 形参:文件名 返回:文件的MD5码 ''' file = open( filename, 'rb' ) file_content = file.read(1024*1024) file.close() m = md5.new( file_content ) return m.he…
以下代码素材自取:链接:https://pan.baidu.com/s/1fL17RjKyGjpvpeeUFONCaQ  提取码:zgiw # coding:utf-8 import os import filecmp # 将指定目录下的所有文件的路径存储到all_files变量中 def get_all_files(path, dirs): all_files = [] for d in dirs: cur_path = os.path.join(path, d) files = os.lis…
原文链接:https://www.linuxprobe.com/linux-FSlint.html FSlint同时具有GUI和CLI模式.因此,对于新手来说,这是一个用户友好的工具.FSlint不仅可以找到重复项,还可以用于找到错误的符号链接.错误的名称.临时文件.错误的IDS.空目录和未剥离的二进制文件等. 安装FSlint archlinux:$ yay -S fslintDebian, Ubuntu, Linux Mint:$ sudo apt-get install fslintFed…
find /app/jenkins/jenkins/jobs/scam/* ! -name config.xml | xargs rm -rf 删除/app/jenkins/jenkins/jobs/scam/文件夹下 所有名称不为config.xml 的文件…
在实际生活中,经常会有文件重复的困扰,即同一个文件可能既在A目录中,又在B目录中,更可恶的是,即便是同一个文件,文件名可能还不一样.在文件较少的情况下,该类情况还比较容易处理,最不济就是one by one的人工比较——即便如此,也很难保证你的眼神足够犀利.倘若文件很多,这岂不是个impossible mission?最近在看<Python UNIX和Linux系统管理指南>,里面就有有关“数据比较”的内容,在其基础上,结合实际整理如下. 该脚本主要包括以下模块:diskwalk,chechs…
#!/bin/bash #!当前文件夹下,删除内容相同的重复文件,只保留重复文件中的一个. ls -lS --time-style=long-iso | awk 'BEGIN{ getline;getline; name1=$8;size=$5 } { name2=$8; if( size==$5 ) { "md5sum " name1 | getline;csum1=$1; "md5sum " name2 | getline;csum2=$2; if( csum1…