HDFS的一些重要流程】的更多相关文章

HDFS写入和读取流程 一.HDFS HDFS全称是Hadoop Distributed System.HDFS是为以流的方式存取大文件而设计的.适用于几百MB,GB以及TB,并写一次读多次的场合.而对于低延时数据访问.大量小文件.同时写和任意的文件修改,则并不是十分适合. 目前HDFS支持的使用接口除了Java的还有,Thrift.C.FUSE.WebDAV.HTTP等.HDFS是以block-sized chunk组织其文件内容的,默认的block大小为64MB,对于不足64MB的文件,其会…
本文主要介绍5个典型的HDFS流程,这些流程充分体现了HDFS实体间IPC接口和stream接口之间的配合. 1. Client和NN Client到NN有大量的元数据操作,比如修改文件名,在给定目录下创建一个子目录,这些操作一般只涉及Client和NN的交互,通过IPC调用ClientProtocol进行.创建子目录的逻辑流程如下图: 从图中可见,创建子目录这种操作并没有涉及DN.因为元数据会被NN持久化到edits中,因此在持久化结束之后,这个调用就会被成功返回.复习一下:NN维护了HDFS…
1. HDFS的写数据流程 1.客户端通过fs模块向NameNode申请文件上传,NameNode检查请求是否合法,如用户权限,目标文件是否已存在,父目录是否存在等等 2.NameNode返回是否可以上传,如果是的话,建立连接通道 3.客户端通过FSDataOutputStream模块请求上传block,NameNode根据网络拓扑距离计算返回的节点,dn1,dn2,dn3 4.客户端与dn1建立连接通道,dn1收到请求后会向dn2发起连接请求,dn2收到请求后会向dn3发起请求.请求通道全部打…
HDFS的上传流程 命令:hdfs dfs -put xxx.wmv /hdfs的文件夹 cd进入到要上传文件的当前目录,再输入hdfs命令上传,注意-put后tab可以自动补全, 最后加上你要上传到hdfs的NN文件路径,/表示根目录. 步骤1: client接受到Linux操作命令,要求上传文件到hdfs的存储空间中,将关于文件的元数据信息发送到NameNode. 步骤2: NN对上传文件进行校验,文件夹是否存在等;计算出需要分为几个block块存储,分别几个副本因子,存储到哪几个服务器.…
该随笔记录HDFS学习过程中遇到的比较重要的几个过程,包括:HDFS启动流程.DataNode备份流程.流程.写流程.删除流程.HDFS合并流程.这里都是从我的学习笔记中摘取出来的,如果哪里有误,还望不吝赐教. 1. 读流程 1)客户端发起RPC请求(RPC-Client)访问NameNode: 2)NameNode会查询元数据,找到这个文件存储位置对应的数据块的信息: 3)NameNode将文件对应的数据块的节点地址的全部或者部分放入一个队列中然后返回: 4)Client收到这个数据块对应的节…
一.HDFS读取文件流程: 详解读取流程: Client调用FileSystem.open()方法: 1 FileSystem通过RPC与NN通信,NN返回该文件的部分或全部block列表(含有block拷贝的DN地址). 2 选取举栗客户端最近的DN建立连接,读取block,返回FSDataInputStream. Client调用输入流的read()方法: 1 当读到block结尾时,FSDataInputStream关闭与当前DN的连接,并未读取下一个block寻找最近DN. 2 读取完一…
文件是如何写入HDFS的 ? 下面我们来先看看下面的“写”流程图:  假如我们有一个文件test.txt,想要把它放到Hadoop上,执行如下命令: 引用         # hadoop fs  -put  /usr/bigdata/dataset/input/20130706/test.txt   /opt/bigdata/hadoop/dataset/input/20130706  //或执行下面的命令         # hadoop fs -copyFromLocal /usr/big…
1. HDFS 写数据流程 客户端通过 Distributed FileSystem 模块向 NameNode 请求上传文件, NameNode 检查目标文件是否已存在,父目录是否存在: NameNode 返回是否可以上传: 客户端请求NameNode,获取第一个 Block 上传到哪几个 DataNode 服务器上: NameNode 返回3个 DataNode 节点, 分别为 dn1, dn2, dn3: 客户端通过 FSDataOutputStream 模块请求 dn1 上传数据, dn1…
HDFS读数据流程 假设客户端请求下载文件/user/atguigu/ss.avi,HDFS读数据流程如下: 1)客户端向namenode请求下载文件,namenode通过查询元数据,找到文件所有文件块及所在的datanode地址. 2)挑选一台datanode(就近原则,然后随机)服务器,请求读取数据. 3)datanode开始传输数据给客户端(从磁盘里面读取数据放入流,以packet为单位来做校验). 4)客户端以packet为单位接收,先在本地缓存,然后合并写入目标文件.…
剖析HDFS文件写入 假设文件ss.avi共200m,其写入HDFS指定路径/user/atguigu/ss.avi流程如下: 1)客户端向namenode请求上传文件到指定路径,namenode通过元数据(编辑日志edits和镜像文件fsimage)检查目标文件是否已存在,父目录是否存在.(先执行edits,再看fsimage中是否存在) 2)namenode返回是否可以上传. 3)客户端请求第一个 block上传到哪几个datanode服务器上. 4)namenode返回3个datanode…