本文翻译主要来自Datastax的cassandra1.2文档。http://www.datastax.com/documentation/cassandra/1.2/index.html。此外还有一些来自于相关官方博客。

该翻译作为ISE实验室大数据组Laud的学习材料的一部分,适合对Cassandra已经有一定了解的读者。

未经本人许可,请勿转载。


简述数据模型

1、不是sql(没有事务、没有join),但是不仅仅是kv

2、来自于Google BigTable的灵感。

3、基于列族的。

例子:

还有二级索引、分布式counter、复合列等等


Cassandra Storage Engine

目标:最小化随机IO。

一次写入的流程:

写入的特点是:

没有读取、没有seek

只有顺序io

sstable不再改变:很容易备份

一次读的流程:

压缩

目的:减少sstable数量

合并多个sstable的顺序

顺序IO

SStable的样子:

再说压缩:

Cassandra中,讲新的列写入新的sstable中,那么压缩就是为了将多个sstable合并成一个。

Figure 1: adding sstables with size tiered compaction

因此,一段时间后,会有一行的许多版本会存在于多个不同的sstable中。这些版本中的每一个都可能有不同的列集合。如果sstable就这么积攒下去,读一行数据就需要多次定位到多个文件中去。

因此需要合并,合并也是高性能的,不需要随机IO,因为行也都被有序的存储在了各自的sstable中(基于primary key的顺序)。

Figure 2: sstables under size-tiered compaction after many inserts

cassnadra的大小分层压缩策略跟bigtable论文中的很像:当到达足够数量的sstable(默认4个)的时候,就进行合并。

图1中,一个绿色格子就代表一个sstable,一行就代表一次压缩合并。一旦sstable到了4个,就合并在一起。图2展示了一段时间之后的层次结构,第一层的sstable合并成第二层,第二层的会合并成第三层…

在频繁更新的任务中,会出现三个问题:

1、性能会不一致,因为不能确保一行到底跨越了多少个sstable。最糟糕的例子是,我们可能在每个sstable都有某一行的某些列。

2、因为无法确定到底过时的列会被合并的多块,因此可能会浪费大量的空间,尤其是很多delete的时候。

3、Space can also be a problem as sstables grow larger from repeated compactions, since an obsolete sstable cannot be removed until the merged sstable is completely written.  In the worst case of a single set of large sstable with no obsolete rows to remove, Cassandra would need 100% as much free space as is used by the sstables being compacted, into which to write the merged one.

Cassandra1.0之后引进了Leveled compaction策略,这是基于Chromium团队的levelDB的

Leveled Compaction (译者注:翻译的不是很懂)

leveled compation创建固定大小的sstable(默认5MB),他们组成了“levels”。在每一层里面,sstable们能确保不重叠。每一层都比前一层大10倍。

Figure 3: adding sstables under leveled compaction

图3中,新的sstable首先加入第一层level, L0.然后立刻合并成sstable到L1,(蓝色的),当L1满了,就合并成L2(紫色的)。Subsequent sstables generated in L1 will be compacted with the sstables in L2 with which they overlap. As more data is added, leveled compaction results in a situation like the one shown in figure 4.

Figure 4: sstables under leveled compaction after many inserts

这种方式能解决上述问题:

1、这种合并压缩能确保90%的读取都能从单个sstable中获取(假设行的大小统一)。最坏的情况是读取层的数量次。比如 10T的数据会读取7个。

2、之多10%的空间会因为过时行而浪费。

3、在compact时只需要有10*sstable大小的空间被临时使用。

使用:通过在创建或者更新表结构时 加入:compaction_strategy option set to LeveledCompactionStrategy.(更新也是后台的,所以对于已经存在的表,修改compact类型不影响读写)

由于leveled compaction要确保上面的问题,他比size-tiered compation 要花费大概两倍的io。对于写入为主的负载,这种额外的io并不会因为上面的好处带来很多收益,因为没有多少行的旧版本涉及。

设置的一些细节:Leveled compaction ignores the concurrent_compactors setting. Concurrent compaction is designed to avoid tiered compaction’s problem of a backlog of small compaction sets becoming blocked temporarily while the compaction system is busy with a large set. Leveled compaction does not have this problem, since all compaction sets are roughly the same size. Leveled compaction does honor the multithreaded_compaction setting, which allows using one thread per sstable to speed up compaction. However, most compaction tuning will still involve usingcompaction_throughput_mb_per_sec (default: 16) to throttle compaction back.

什么时候使用leveled compation呢:英文版中文版


数据管理

为了管理和访问数据,那么就必须知道Cassandra如何读写数据的,hinted handoff特征,与ACID的一致和不一致的地方。在Cassandra中,一致性指的是如何更新和同步一行的数据到他的所有副本上。In Cassandra, consistency refers to how up-to-date and synchronized a row of data is on all of its replicas.

to be continue…

[译]Cassandra的数据读写与压缩的更多相关文章

  1. 一文彻底搞懂Hive的数据存储与压缩

    目录 行存储与列存储 行存储的特点 列存储的特点 常见的数据格式 TextFile SequenceFile RCfile ORCfile 格式 数据访问 Parquet 测试 准备测试数据 存储空间 ...

  2. HBase 数据读写流程

    HBase 数据读写流程 2016-10-18 杜亦舒 读数据 HBase的表是按行拆分为一个个 region 块儿,这些块儿被放置在各个 regionserver 中 假设现在想在用户表中获取 ro ...

  3. VB6 GDI+ 入门教程[9] Bitmap魔法(2):数据读写

    本文转自 http://vistaswx.com/blog/article/category/tutorial/page/2 VB6 GDI+ 入门教程[9] Bitmap魔法(2):数据读写 200 ...

  4. read/write数据读写传输方式(转)

    前言 笔者本打算撰写一篇讲解标准I/O(缓存I/O)的博文,但是发现已经有网友做过同样的工作,并且工作质量上乘,特转载于此. 原文地址http://lenky.info/archives/2012/0 ...

  5. 实现AT24C02的数据读写操作

    /*************************************************************** 功能:11:32 2008-6-27 作者:SG 时间:2004-03 ...

  6. 背水一战 Windows 10 (89) - 文件系统: 读写文本数据, 读写二进制数据, 读写流数据

    [源码下载] 背水一战 Windows 10 (89) - 文件系统: 读写文本数据, 读写二进制数据, 读写流数据 作者:webabcd 介绍背水一战 Windows 10 之 文件系统 读写文本数 ...

  7. 【详解】换一个角度看Socket的数据读写

    前言 以前对IO.NIO还算了解,也写过Netty的项目.但是对底层的数据传递不是很了解,一直存有这方面的疑惑.但是由于有其他事情就被打断了.前阵子因为想要了解volatile关键字的原理,学习了下J ...

  8. Cassandra 的数据存储结构——本质是SortedMap<RowKey, SortedMap<ColumnKey, ColumnValue>>

    Cassandra 的数据存储结构 Cassandra 的数据模型是基于列族(Column Family)的四维或五维模型.它借鉴了 Amazon 的 Dynamo 和 Google's BigTab ...

  9. spark(2.1) - spark-shell 下文件系统的数据读写

    spark-shell 本地文件系统数据读写 [ file:// ] 读取 :sc.textFile (" ****") 写入:saveAsTextFile ("**** ...

随机推荐

  1. VS打包资源文件,转自推酷,请小星同学查看

    上篇博客把收费系统的总体设计进行了一遍讲解,讲解的同时掺杂了些有关.NET编译机制的总结.程序编写测试完成后接下来我们要做的是打包部署程序,但VS2012让人心痛的是没有了打包工具.不知道出于什么原因 ...

  2. mysql 使用说明-3

    3.4 Getting Information About Databases and Tables 获取数据库和表格的信息 如果你忘记了数据库或者表格的名字怎么办?或者给定的表格的结构怎么办?(例如 ...

  3. flexgrid的应用

    第一.导入必须的CSS与JS: <link rel="stylesheet" type="text/css" href="css/flexigr ...

  4. 动手学servlet(一) 第一个servlet程序

    1.文件>新建>动态WEB项目 "javaeedemo">在Java Resource的src下新建包“servletdemo”,包下新建一个类“MyServet ...

  5. FileZilla - Windows XP经典软件系列

    官网: https://filezilla-project.org/ 下载: http://sourceforge.net/projects/filezilla/ 版本:V3.9.0.1 (支持XP最 ...

  6. nginx如何限速?

    nginx自从1.1.8版本发布后将limit_conn更换为limit_conn_zone . 对应则需要修改配置文件 在nginx.conf的http下面加入下面代码limit_conn_zone ...

  7. Java高级软件工程师面试考纲(转)

    如果要应聘高级开发工程师职务,仅仅懂得Java的基础知识是远远不够的,还必须懂得常用数据结构.算法.网络.操作系统等知识.因此本文不会讲解具体的技术,笔者综合自己应聘各大公司的经历,整理了一份大公司对 ...

  8. 使用C#调用windows API入门

    一:入门,直接从 C# 调用 DLL 导出   其实我们的议题应该叫做C#如何直接调用非托管代码,通常有2种方法: 1.  直接调用从 DLL 导出的函数. 2.  调用 COM 对象上的接口方法 我 ...

  9. 第1章 shell编程概述

    1.shell简介 shell是一种具备特殊功能的程序,它提供了用户与内核交互操作的一种接口.它用于接收用户输入的命令,并把它送入到内核去执行. shell是一种应用程序,当用户登录Linux系统时, ...

  10. Ext.Net 破解

    在使用 Ext.Net 框架时,如果没有得到正版授权(安装密钥),在站点发布后,打开界面总是弹出一个窗口,提示没有授权,看着都头疼,难道一定要安装密钥吗?但还是有办法解决的,在研究时发现,页面中多了两 ...