需求描述: 在使用cmd的过程中,有的时候需要查看当前目录下有哪些文件或者文件夹,类似linux下的ls命令 操作过程: 1.通过dir命令查看当前目录下有哪些的文件及文件夹 备注:通过dir命令,就能查看当前目录下有哪些的文件.文件夹,并且还会进行统计有多少个文件,多少个文件夹. 文档创建时间:2018年4月3日22:29:43…
 查看当前目录下所有py文件(本身除外run) import os file_list = os.listdir(os.getcwd()) # 获取当前目录下所有的文件名print(file_list)for filename in file_list: if os.path.isfile(filename) and filename.endswith('.py') and filename.find("run") == -1: print(filename,'\n') os.syst…
du -sh*查看当前目录下的文件夹大小   u 命令    用途    概述磁盘使用.    语法  du [ -a | -s ] [ -k ] [ -m ] [ -g ][ -l ] [ -r ] [ -x ] [ -H | -L ][ File ... ]    描述  du命令显示用于文件的块的数量.如果指定的File参数实际上是一个目录,就要报告该目录内的所有文件.如果没有提供 File参数,du命令使用当前目录内的文件.    如果File参数是一个目录,那么报告的块的数量就是分配到…
zhuazai:https://blog.csdn.net/sty945/article/details/79830915 前言 ls命令 ls -a ls -l ll du命令 du -s du -s * du -s * | sort -nr 我的DIY_Bash 在linux任意位置都可以使用这个目录下的脚本 注意 前言 最近几乎大部分工作都在linux上进行的,发现在工作过程中经常要查看当前目录下的文件大小,但是每次都是用ls命令每次都是以字节形式显示的,看起来特别不爽.于是开始了再lin…
2.1. 创建和删除 创建:mkdir 删除:rm 删除非空目录:rm -rf file目录 删除日志 rm *log (等价: $find ./ -name "*log" -exec rm {} ;) 移动:mv 复制:cp (复制目录:cp -r ) 查看当前目录下文件个数: $find ./ | wc -l # cd /opt/# find ./ |wc -l2714# lsBackupPC dmdbms harborinst rh# 复制目录: $cp -r source_di…
package com.tfj.file; import java.io.File; import java.util.ArrayList; /** * @author JackSile E-mail:tufujiepuyang@foxmail.com * @date 2015年10月23日 下午5:10:39 * @function 查看路径下的所有文件,如果是路径,则显示路径,否则显示文件名 */ public class DirFileName { public static void m…
该python 脚本有以下三个功能: 1. 实现查看目录下重复的文件,输出文件按修改时间升序排列 2. 将按修改时间排列比较旧的.可删除的文件列出来 3. 按目录对重复文件进行统计,比如,目录/tmp  重复个数5,是指/tmp目录下有5个文件在其他地方也存在 python脚本 #!/usr/bin/env python #coding=utf-8 ''' Created on Nov 30, 2016 @author: fangcheng ''' from __future__ import…
查看Linux下*.a库文件中文件.函数.变量等情况在Linux 下经常需要链接一些 *.a的库文件,那怎么查看这些*.a 中包 含哪些文件.函数.变量: 1. 查看文件:ar -t xxx.a 2. 查看函数.变里:nm xxx.a 引用来自 http://www.cnblogs.com/xiehy/archive/2011/03/15/1984878.html Linux下动态库查看方法:nm -D libavformat.so Linux下静态库查看方法:ar -t libavformat…
1.查看HDFS下所有的文件存储位置信息 package Hdfs; import java.net.URI; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.BlockLocation; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.f…