编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务:

  1. 在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词.
  2. 在本地查看文件位置(ls)
  3. 在本地显示文件内容
    cd /usr/local/hadoop
    touch test1.txt
    cat test1.txt
  4. 使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。
    ./sbin/start-dfs.sh
    ./bin/hdfs dfs -mkdir -p /user/hadoop
    ./bin/hdfs dfs -mkdir input
    ./bin/hdfs dfs -put ./test1.txt input
  5. 查看hdfs中的文件(-ls)
    ./bin/hdfs dfs -ls /input
  6. 显示hdfs中该的文件内容
    ./bin/hdfs dfs -cat input/test1.txt
  7. 删除本地的txt文件并查看目录
    ./bin/hdfs dfs -rm -ls input/test1.txt
  8. 从hdfs中将txt下载地本地原来的位置。
    ./bin/hdfs dfs -get input/test.txt ~/test1.txt
  9. 从hdfs中删除txt并查看目录
    ./bin/hdfs dfs -rm -ls input/test1.txt

    向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;

    if $(hdfs dfs -test -e text.txt);
    then $(hdfs dfs -appendToFile local.txt text.txt);
    else $(hdfs dfs -copyFromLocal -f local.txt text.txt);
    fi

    从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

    if $(hdfs dfs -test -e file:///home/hadoop/text.txt);
    then $(hdfs dfs -copyToLocal text.txt ./text2.txt);
    else $(hdfs dfs -copyToLocal text.txt ./text.txt);
    fi

    将HDFS中指定文件的内容输出到终端中;

    hdfs dfs -cat text.txt

    显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

    hdfs dfs -ls -h text.txt

    给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

    hdfs dfs -ls -R -h /user/hadoop

    提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

    if $(hdfs dfs -test -d dir1/dir2);
    then $(hdfs dfs -touchz dir1/dir2/filename);
    else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename);
    fi
    删除文件:hdfs dfs -rm dir1/dir2/filename

    提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

    创建目录:hdfs dfs -mkdir -p dir1/dir2
    删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
    强制删除目录:hdfs dfs -rm -R dir1/dir2

    向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

    追加到文件末尾:hdfs dfs -appendToFile local.txt text.txt
    追加到文件开头:
    (由于没有直接的命令可以操作,方法之一是先移动到本地进行操作,再进行上传覆盖):
    hdfs dfs -get text.txt
    cat text.txt >> local.txt
    hdfs dfs -copyFromLocal -f text.txt text.txt

    删除HDFS中指定的文件;

    hdfs dfs -rm text.txt

    删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;

    删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
    强制删除目录:hdfs dfs -rm -R dir1/dir2

    在HDFS中,将文件从源路径移动到目的路径。

    hdfs dfs -mv text.txt text2.txt
    • 向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件;

      if $(hdfs dfs -test -e text.txt);
      then $(hdfs dfs -appendToFile local.txt text.txt);
      else $(hdfs dfs -copyFromLocal -f local.txt text.txt);
      fi

      从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;

      if $(hdfs dfs -test -e file:///home/hadoop/text.txt);
      then $(hdfs dfs -copyToLocal text.txt ./text2.txt);
      else $(hdfs dfs -copyToLocal text.txt ./text.txt);
      fi

      将HDFS中指定文件的内容输出到终端中;

      hdfs dfs -cat text.txt

      显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

      hdfs dfs -ls -h text.txt

      给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

      hdfs dfs -ls -R -h /user/hadoop

      提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;

      if $(hdfs dfs -test -d dir1/dir2);
      then $(hdfs dfs -touchz dir1/dir2/filename);
      else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename);
      fi
      删除文件:hdfs dfs -rm dir1/dir2/filename

      提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;

      创建目录:hdfs dfs -mkdir -p dir1/dir2
      删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
      强制删除目录:hdfs dfs -rm -R dir1/dir2

      向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

      追加到文件末尾:hdfs dfs -appendToFile local.txt text.txt
      追加到文件开头:
      (由于没有直接的命令可以操作,方法之一是先移动到本地进行操作,再进行上传覆盖):
      hdfs dfs -get text.txt
      cat text.txt >> local.txt
      hdfs dfs -copyFromLocal -f text.txt text.txt

      删除HDFS中指定的文件;

      hdfs dfs -rm text.txt

      删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录;

      删除目录(如果目录非空则会提示not empty,不执行删除):hdfs dfs -rmdir dir1/dir2
      强制删除目录:hdfs dfs -rm -R dir1/dir2

      在HDFS中,将文件从源路径移动到目的路径。

      hdfs dfs -mv text.txt text2.txt

熟悉常用的HDFS操作的更多相关文章

  1. Tutorial 02_熟悉常用的HDFS操作

    Shell命令实现: (1)向HDFS 中上传任意文本文件,如果指定的文件在HDFS 中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件: (2) 从HDFS 中下载指定文件,如果本地文 ...

  2. 第三章 熟悉常用的HDFS操作

    一.Hadoop提供的Shell命令完成相同任务: 1.在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. mkdir hadoop 在本地查 ...

  3. Tutorial 01_熟悉常用的Linux操作和Hadoop操作

    (一)熟悉常用的Linux 操作cd 命令:切换目录 (1) 切换到目录“/usr/local” (2) 切换到当前目录的上一级目录 (3) 切换到当前登录Linux 系统的用户的自己的主文件夹  ...

  4. 熟悉常用的HBase操作,编写MapReduce作业

    1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 201 ...

  5. 常用的HDFS操作

    首先,把Hadoop命令加入到PATH环境变量中,直接通过start-dfs.sh开启Hadoop,也可以直接通过hdfs命令访问HDFS中的内容,方便平时的操作. 配置PATH环境变量 vim  ~ ...

  6. 熟悉常用的HBase操作

    1. 以下关系型数据库中的表和数据,要求将其转换为适合于HBase存储的表并插入数据: 学生表(Student)(不包括最后一列) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S ...

  7. 熟悉常用的Linux操作

    请按要求上机实践如下linux基本命令. cd命令:切换目录 (1)切换到目录 /usr/local  cd /usr/local (2)去到目前的上层目录    cd .. (3)回到自己的主文件夹 ...

  8. 课程作业——熟悉常用的Linux操作

    cd命令:切换目录 (1) 切换到目录 /usr/local cd /usr/local (2) 去到目前的上层目录 cd .. (3) 回到自己的主文件夹 cd ~ ls命令:查看文件与目录 (4) ...

  9. 实验3- 熟悉常用的 HBase 操作

        石家庄铁道大学信息科学与技术学院               实验报告 2018年----2019年  第一学期                       题目:  熟悉常用的 HBase ...

随机推荐

  1. 基础设施DevOps演进之路

    Related Links:Zuul  https://github.com/Netflix/zuulCAT     https://github.com/dianping/cat Apollo  h ...

  2. 【转】Redis一般会遇到的问题以及解析

    单线程的 Redis 为什么这么快 这个问题是对 Redis 内部机制的一个考察.根据我的面试经验,很多人都不知道Redis 是单线程工作模型.所以,这个问题还是应该要复习一下的. 回答主要是以下三点 ...

  3. 解释器模式 Interpreter 行为型 设计模式(十九)

      解释器模式(Interpreter)   考虑上图中计算器的例子 设计可以用于计算加减运算(简单起见,省略乘除),你会怎么做?    你可能会定义一个工具类,工具类中有N多静态方法 比如定义了两个 ...

  4. Dynamics 365-关于Solution的那些事(一)

    关于CRM Solution,我准备写两到三篇的博客来做下介绍:包括一些基本信息,超大solution,还有增量更新solution操作等. CRM中的component,都是放在一个名叫Soluti ...

  5. Dynamics 365-N:N Relationship的记录处理

    在Dynamics CRM中,两个Entity之间是可以有N:N Relationship的,但是CRM实现N:N,是通过系统自创建一个中间表来实现的.这个中间表,如果环境是OnPremise,可以根 ...

  6. (三) Keras Mnist分类程序以及改用交叉熵对比

    视频学习来源 https://www.bilibili.com/video/av40787141?from=search&seid=17003307842787199553 笔记 Mnist分 ...

  7. MPP-编码示例

    了解MPP的基本功能后,接下来具体分析编码的代码.首先把编码的代码提取出来,方便以后的使用. 完整的编码代码如下,相比较给出的示例代码,做了一些改动,输入的指令全部去除,将函数入口改为利用OpenCV ...

  8. 盖洛普Q12在团队中的应用

    周五给大家做了个盖洛普Q12的分享.   分享前做了调查问卷.除了盖洛普Q12的12个问题: 1.我知道公司对我的工作要求吗? 2.我有做好我的工作所需要的材料和设备吗? 3.在工作中,我每天都有机会 ...

  9. Java关于字符串工具类~持续汇总~

    /** * 01 * 描述:String的substring和replace方法使用 * [时间 2019年3月5日下午3:22:08 作者 陶攀峰] */ public static void te ...

  10. PO,VO,TO,BO,DAO,POJO的解释

    java的(PO,VO,TO,BO,DAO,POJO)解释  O/R Mapping 是 Object Relational Mapping(对象关系映射)的缩写.通俗点讲,就是将对象与关系数据库绑定 ...