数据去重(data deduplication)是大数据领域司空见惯的问题了.除了统计UV等传统用法之外,去重的意义更在于消除不可靠数据源产生的脏数据--即重复上报数据或重复投递数据的影响,使计算产生的结果更加准确. 介绍下经常使用的去重方案: 一.布隆过滤器(BloomFilter) 基本原理: BloomFilter是由一个长度为m比特的位数组(bit array)与k个哈希函数(hash function)组成的数据结构.位数组均初始化为0,所有哈希函数都可以分别把输入数据尽量均匀地散列.…