SequenceFile文件是Hadoop用来存储二进制形式的key-value对而设计的一种平面文件(Flat File)。目前,也有不少人在该文件的基础之上提出了一些HDFS中小文件存储的解决方案,他们的基本思路就是将小文件进行合并成一个大文件,同时对这些小文件的位置信息构建索引。不过,这类解决方案还涉及到Hadoop的另一种文件格式——MapFile文件。SequenceFile文件并不保证其存储的key-value数据是按照key的某个顺序存储的,同时不支持append操作。

在SequenceFile文件中,每一个key-value被看做是一条记录(Record),因此基于Record的压缩策略,SequenceFile文件可支持三种压缩类型(SequenceFile.CompressionType):

NONE: 对records不进行压缩;

RECORD: 仅压缩每一个record中的value值;

BLOCK: 将一个block中的所有records压缩在一起;

那么,基于这三种压缩类型,Hadoop提供了对应的三种类型的Writer:

SequenceFile.Writer  写入时不压缩任何的key-value对(Record);

  1. public static class Writer implements java.io.Closeable {
  2. ...
  3. //初始化Writer
  4. void init(Path name, Configuration conf, FSDataOutputStream out, Class keyClass, Class valClass, boolean compress, CompressionCodec codec, Metadata metadata) throws IOException {
  5. this.conf = conf;
  6. this.out = out;
  7. this.keyClass = keyClass;
  8. this.valClass = valClass;
  9. this.compress = compress;
  10. this.codec = codec;
  11. this.metadata = metadata;
  12. //创建非压缩的对象序列化器
  13. SerializationFactory serializationFactory = new SerializationFactory(conf);
  14. this.keySerializer = serializationFactory.getSerializer(keyClass);
  15. this.keySerializer.open(buffer);
  16. this.uncompressedValSerializer = serializationFactory.getSerializer(valClass);
  17. this.uncompressedValSerializer.open(buffer);
  18. //创建可压缩的对象序列化器
  19. if (this.codec != null) {
  20. ReflectionUtils.setConf(this.codec, this.conf);
  21. this.compressor = CodecPool.getCompressor(this.codec);
  22. this.deflateFilter = this.codec.createOutputStream(buffer, compressor);
  23. this.deflateOut = new DataOutputStream(new BufferedOutputStream(deflateFilter));
  24. this.compressedValSerializer = serializationFactory.getSerializer(valClass);
  25. this.compressedValSerializer.open(deflateOut);
  26. }
  27. }
  28. //添加一条记录(key-value,对象值需要序列化)
  29. public synchronized void append(Object key, Object val) throws IOException {
  30. if (key.getClass() != keyClass)
  31. throw new IOException("wrong key class: "+key.getClass().getName() +" is not "+keyClass);
  32. if (val.getClass() != valClass)
  33. throw new IOException("wrong value class: "+val.getClass().getName() +" is not "+valClass);
  34. buffer.reset();
  35. //序列化key(将key转化为二进制数组),并写入缓存buffer中
  36. keySerializer.serialize(key);
  37. int keyLength = buffer.getLength();
  38. if (keyLength < 0)
  39. throw new IOException("negative length keys not allowed: " + key);
  40. //compress在初始化是被置为false
  41. if (compress) {
  42. deflateFilter.resetState();
  43. compressedValSerializer.serialize(val);
  44. deflateOut.flush();
  45. deflateFilter.finish();
  46. } else {
  47. //序列化value值(不压缩),并将其写入缓存buffer中
  48. uncompressedValSerializer.serialize(val);
  49. }
  50. //将这条记录写入文件流
  51. checkAndWriteSync();                                // sync
  52. out.writeInt(buffer.getLength());                   // total record length
  53. out.writeInt(keyLength);                            // key portion length
  54. out.write(buffer.getData(), 0, buffer.getLength()); // data
  55. }
  56. //添加一条记录(key-value,二进制值)
  57. public synchronized void appendRaw(byte[] keyData, int keyOffset, int keyLength, ValueBytes val) throws IOException {
  58. if (keyLength < 0)
  59. throw new IOException("negative length keys not allowed: " + keyLength);
  60. int valLength = val.getSize();
  61. checkAndWriteSync();
  62. //直接将key-value写入文件流
  63. out.writeInt(keyLength+valLength);          // total record length
  64. out.writeInt(keyLength);                    // key portion length
  65. out.write(keyData, keyOffset, keyLength);   // key
  66. val.writeUncompressedBytes(out);            // value
  67. }
  68. ...
  69. }

SequenceFile.RecordCompressWriter写入时只压缩key-value对(Record)中的value;

  1. static class RecordCompressWriter extends Writer {
  2. ...
  3. public synchronized void append(Object key, Object val) throws IOException {
  4. if (key.getClass() != keyClass)
  5. throw new IOException("wrong key class: "+key.getClass().getName() +" is not "+keyClass);
  6. if (val.getClass() != valClass)
  7. throw new IOException("wrong value class: "+val.getClass().getName() +" is not "+valClass);
  8. buffer.reset();
  9. //序列化key(将key转化为二进制数组),并写入缓存buffer中
  10. keySerializer.serialize(key);
  11. int keyLength = buffer.getLength();
  12. if (keyLength < 0)
  13. throw new IOException("negative length keys not allowed: " + key);
  14. //序列化value值(不压缩),并将其写入缓存buffer中
  15. deflateFilter.resetState();
  16. compressedValSerializer.serialize(val);
  17. deflateOut.flush();
  18. deflateFilter.finish();
  19. //将这条记录写入文件流
  20. checkAndWriteSync();                                // sync
  21. out.writeInt(buffer.getLength());                   // total record length
  22. out.writeInt(keyLength);                            // key portion length
  23. out.write(buffer.getData(), 0, buffer.getLength()); // data
  24. }
  25. /** 添加一条记录(key-value,二进制值,value已压缩) */
  26. public synchronized void appendRaw(byte[] keyData, int keyOffset,
  27. int keyLength, ValueBytes val) throws IOException {
  28. if (keyLength < 0)
  29. throw new IOException("negative length keys not allowed: " + keyLength);
  30. int valLength = val.getSize();
  31. checkAndWriteSync();                        // sync
  32. out.writeInt(keyLength+valLength);          // total record length
  33. out.writeInt(keyLength);                    // key portion length
  34. out.write(keyData, keyOffset, keyLength);   // 'key' data
  35. val.writeCompressedBytes(out);              // 'value' data
  36. }
  37. } // RecordCompressionWriter
  38. ...
  39. }

SequenceFile.BlockCompressWriter 写入时将一批key-value对(Record)压缩成一个Block;

  1. static class BlockCompressWriter extends Writer {
  2. ...
  3. void init(int compressionBlockSize) throws IOException {
  4. this.compressionBlockSize = compressionBlockSize;
  5. keySerializer.close();
  6. keySerializer.open(keyBuffer);
  7. uncompressedValSerializer.close();
  8. uncompressedValSerializer.open(valBuffer);
  9. }
  10. /** Workhorse to check and write out compressed data/lengths */
  11. private synchronized void writeBuffer(DataOutputBuffer uncompressedDataBuffer) throws IOException {
  12. deflateFilter.resetState();
  13. buffer.reset();
  14. deflateOut.write(uncompressedDataBuffer.getData(), 0, uncompressedDataBuffer.getLength());
  15. deflateOut.flush();
  16. deflateFilter.finish();
  17. WritableUtils.writeVInt(out, buffer.getLength());
  18. out.write(buffer.getData(), 0, buffer.getLength());
  19. }
  20. /** Compress and flush contents to dfs */
  21. public synchronized void sync() throws IOException {
  22. if (noBufferedRecords > 0) {
  23. super.sync();
  24. // No. of records
  25. WritableUtils.writeVInt(out, noBufferedRecords);
  26. // Write 'keys' and lengths
  27. writeBuffer(keyLenBuffer);
  28. writeBuffer(keyBuffer);
  29. // Write 'values' and lengths
  30. writeBuffer(valLenBuffer);
  31. writeBuffer(valBuffer);
  32. // Flush the file-stream
  33. out.flush();
  34. // Reset internal states
  35. keyLenBuffer.reset();
  36. keyBuffer.reset();
  37. valLenBuffer.reset();
  38. valBuffer.reset();
  39. noBufferedRecords = 0;
  40. }
  41. }
  42. //添加一条记录(key-value,对象值需要序列化)
  43. public synchronized void append(Object key, Object val) throws IOException {
  44. if (key.getClass() != keyClass)
  45. throw new IOException("wrong key class: "+key+" is not "+keyClass);
  46. if (val.getClass() != valClass)
  47. throw new IOException("wrong value class: "+val+" is not "+valClass);
  48. //序列化key(将key转化为二进制数组)(未压缩),并写入缓存keyBuffer中
  49. int oldKeyLength = keyBuffer.getLength();
  50. keySerializer.serialize(key);
  51. int keyLength = keyBuffer.getLength() - oldKeyLength;
  52. if (keyLength < 0)
  53. throw new IOException("negative length keys not allowed: " + key);
  54. WritableUtils.writeVInt(keyLenBuffer, keyLength);
  55. //序列化value(将value转化为二进制数组)(未压缩),并写入缓存valBuffer中
  56. int oldValLength = valBuffer.getLength();
  57. uncompressedValSerializer.serialize(val);
  58. int valLength = valBuffer.getLength() - oldValLength;
  59. WritableUtils.writeVInt(valLenBuffer, valLength);
  60. // Added another key/value pair
  61. ++noBufferedRecords;
  62. // Compress and flush?
  63. int currentBlockSize = keyBuffer.getLength() + valBuffer.getLength();
  64. //block已满,可将整个block进行压缩并写入文件流
  65. if (currentBlockSize >= compressionBlockSize) {
  66. sync();
  67. }
  68. }
  69. /**添加一条记录(key-value,二进制值,value已压缩). */
  70. public synchronized void appendRaw(byte[] keyData, int keyOffset, int keyLength, ValueBytes val) throws IOException {
  71. if (keyLength < 0)
  72. throw new IOException("negative length keys not allowed");
  73. int valLength = val.getSize();
  74. // Save key/value data in relevant buffers
  75. WritableUtils.writeVInt(keyLenBuffer, keyLength);
  76. keyBuffer.write(keyData, keyOffset, keyLength);
  77. WritableUtils.writeVInt(valLenBuffer, valLength);
  78. val.writeUncompressedBytes(valBuffer);
  79. // Added another key/value pair
  80. ++noBufferedRecords;
  81. // Compress and flush?
  82. int currentBlockSize = keyBuffer.getLength() + valBuffer.getLength();
  83. if (currentBlockSize >= compressionBlockSize) {
  84. sync();
  85. }
  86. }
  87. } // RecordCompressionWriter
  88. ...
  89. }

源码中,block的大小compressionBlockSize默认值为1000000,也可通过配置参数io.seqfile.compress.blocksize来指定。

根据三种压缩算法,共有三种类型的SequenceFile文件格式:

1). Uncompressed SequenceFile

2). Record-Compressed SequenceFile

3). Block-Compressed SequenceFile

SequenceFile文件的更多相关文章

  1. Hadoop 写SequenceFile文件 源代码

    package com.tdxx.hadoop.sequencefile; import java.io.IOException; import org.apache.hadoop.conf.Conf ...

  2. 基于Hadoop Sequencefile的小文件解决方案

    一.概述 小文件是指文件size小于HDFS上block大小的文件.这样的文件会给hadoop的扩展性和性能带来严重问题.首先,在HDFS中,任何block,文件或者目录在内存中均以对象的形式存储,每 ...

  3. hadoop 将HDFS上多个小文件合并到SequenceFile里

    背景:hdfs上的文件最好和hdfs的块大小的N倍.如果文件太小,浪费namnode的元数据存储空间以及内存,如果文件分块不合理也会影响mapreduce中map的效率. 本例中将小文件的文件名作为k ...

  4. 5.4.1 sequenceFile读写文件、记录边界、同步点、压缩排序、格式

    5.4.1      sequenceFile读写文件.记录边界.同步点.压缩排序.格式 HDFS和MapReduce是针对大文件优化的存储文本记录,不适合二进制类型的数据.SequenceFile作 ...

  5. Hadoop SequenceFile数据结构介绍及读写

    在一些应用中,我们需要一种特殊的数据结构来存储数据,并进行读取,这里就分析下为什么用SequenceFile格式文件. Hadoop SequenceFile Hadoop提供的SequenceFil ...

  6. Hadoop基于文件的数据结构及实例

    基于文件的数据结构 两种文件格式: 1.SequenceFile 2.MapFile SequenceFile 1.SequenceFile文件是Hadoop用来存储二进制形式的<key,val ...

  7. Hadoop之SequenceFile

    Hadoop序列化文件SequenceFile能够用于解决大量小文件(所谓小文件:泛指小于black大小的文件)问题,SequenceFile是Hadoop API提供的一种二进制文件支持.这样的二进 ...

  8. 使用代码查看Nutch爬取的网站后生成的SequenceFile信息

    必须针对data文件中的value类型来使用对应的类来查看(把这个data文件,放到了本地Windows的D盘根目录下). 代码: package cn.summerchill.nutch; impo ...

  9. SequenceFile实例操作

    HDFS API提供了一种二进制文件支持,直接将<key,value>对序列化到文件中,该文件格式是不能直接查看的,可以通过hadoop  dfs -text命令查看,后面跟上Sequen ...

随机推荐

  1. Java:JDBC的基本使用

    本文内容: 什么是JDBC JDBC的使用 事务 连接池 DbUtils 首发日期:2018-05-27 修改: 2018-07-19:增加了事务.连接池.DBUtils 2018-07-27:对特别 ...

  2. 【待补充】[HDFS_3] HDFS 工作机制

    0. 说明 HDFS 初始化文件系统分析 && HDFS 文件写入流程 && HDFS 文件读取流程分析 有价值的相关文章: [漫画解读]HDFS存储原理 1. HDF ...

  3. myeclipce项目导入eclipse中报错

    1 找到新建页面所在的工程名字,然后左键选中,右键弹出功能菜单,选择Build Path,进入配置路径. 2 在java build path 页面的下选择Libraries栏目(默认选择),点击右侧 ...

  4. pip更新及Requirement already up-to-date解决方法

    pip更新及Requirement already up-to-date解决方法 文:铁乐与猫 2018-9-11 更新命令 将pip更新到最新版本 python -m pip install --u ...

  5. Python基础知识:模块

    目录 JSON模块&pickle模块 requests模块 time模块 datetime模块 logging模块 os模块 sys模块 hashlib模块 re模块.正则表达式 config ...

  6. Linux之shell脚本for、while、case语句的高级用法

    1.case语句的用法: [root@ELK-chaofeng test]# cat test3.sh #!/bin/bash while true ;do read -p "please ...

  7. mysqld_safe启动服务器总结

    mysqld_safe是服务端工具,用于启动mysqld,并且是mysqld的守护进程,mysqld_safe加&在后台运行$BASEDIR/bin/mysqld_safe & 优点就 ...

  8. JMETER content-type增加

    Jmeter—3 http请求—content-type与参数 本文讲三种content-type以及在Jmeter中对应的参数输入方式 第一部分:目前工作中涉及到的content-type 有三种: ...

  9. Decentraleyes - Local emulation of Content Delivery Networks

    Decentraleyes, 是一个本地化第三方库文件的浏览器插件,提供三十多种语言支持.大致原理如下: 保存常用的第三方库文件到本地,当打开的页面中需要加载的第三方库文件在本地有副本时,随即进行拦截 ...

  10. Properties集合概述与存和取

    Properties集合:(Map集合下的Hashtable集合下的一个子类) 特点: 1.集合中的键和值都是字符串 2.集合中的数据可以保存到流中,或者从流中获取 该集合通常用于操作以键值对形式存在 ...