常见的挖掘频繁项集算法有两类,一类是Apriori算法,另一类是FP-growth。Apriori通过不断的构造候选集、筛选候选集挖掘出频繁项集,需要多次扫描原始数据,当原始数据较大时,磁盘I/O次数太多,效率比较低下。FPGrowth不同于Apriori的“试探”策略,算法只需扫描原始数据两遍,通过FP-tree数据结构对原始数据进行压缩,效率较高。

  FP代表频繁模式(Frequent Pattern) ,算法主要分为两个步骤:FP-tree构建、挖掘频繁项集。

FP树表示法

  FP树通过逐个读入事务,并把事务映射到FP树中的一条路径来构造。由于不同的事务可能会有若干个相同的项,因此它们的路径可能部分重叠。路径相互重叠越多,使用FP树结构获得的压缩效果越好;如果FP树足够小,能够存放在内存中,就可以直接从这个内存中的结构提取频繁项集,而不必重复地扫描存放在硬盘上的数据。

  一颗FP树如下图所示:

  通常,FP树的大小比未压缩的数据小,因为数据的事务常常共享一些共同项,在最好的情况下,所有的事务都具有相同的项集,FP树只包含一条节点路径;当每个事务都具有唯一项集时,导致最坏情况发生,由于事务不包含任何共同项,FP树的大小实际上与原数据的大小一样。

  FP树的根节点用φ表示,其余节点包括一个数据项和该数据项在本路径上的支持度;每条路径都是一条训练数据中满足最小支持度的数据项集;FP树还将所有相同项连接成链表,上图中用蓝色连线表示。

  为了快速访问树中的相同项,还需要维护一个连接具有相同项的节点的指针列表(headTable),每个列表元素包括:数据项、该项的全局最小支持度、指向FP树中该项链表的表头的指针。

构建FP树

  现在有如下数据:

  FP-growth算法需要对原始训练集扫描两遍以构建FP树。

  第一次扫描,过滤掉所有不满足最小支持度的项;对于满足最小支持度的项,按照全局最小支持度排序,在此基础上,为了处理方便,也可以按照项的关键字再次排序。

第一次扫描的后的结果

  第二次扫描,构造FP树。

  参与扫描的是过滤后的数据,如果某个数据项是第一次遇到,则创建该节点,并在headTable中添加一个指向该节点的指针;否则按路径找到该项对应的节点,修改节点信息。具体过程如下所示:

事务001,{z,x}

事务002,{z,x,y,t,s}

事务003,{z}

事务004,{x,s,r}

事务005,{z,x,y,t,r}

事务006,{z,x,y,t,s}

  从上面可以看出,headTable并不是随着FPTree一起创建,而是在第一次扫描时就已经创建完毕,在创建FPTree时只需要将指针指向相应节点即可。从事务004开始,需要创建节点间的连接,使不同路径上的相同项连接成链表。

  代码如下:

  1. def loadSimpDat():
  2. simpDat = [['r', 'z', 'h', 'j', 'p'],
  3. ['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
  4. ['z'],
  5. ['r', 'x', 'n', 'o', 's'],
  6. ['y', 'r', 'x', 'z', 'q', 't', 'p'],
  7. ['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
  8. return simpDat
  9.  
  10. def createInitSet(dataSet):
  11. retDict = {}
  12. for trans in dataSet:
  13. fset = frozenset(trans)
  14. retDict.setdefault(fset, 0)
  15. retDict[fset] += 1
  16. return retDict
  17.  
  18. class treeNode:
  19. def __init__(self, nameValue, numOccur, parentNode):
  20. self.name = nameValue
  21. self.count = numOccur
  22. self.nodeLink = None
  23. self.parent = parentNode
  24. self.children = {}
  25.  
  26. def inc(self, numOccur):
  27. self.count += numOccur
  28.  
  29. def disp(self, ind=1):
  30. print(' ' * ind, self.name, ' ', self.count)
  31. for child in self.children.values():
  32. child.disp(ind + 1)
  33.  
  34. def createTree(dataSet, minSup=1):
  35. headerTable = {}
  36. #此一次遍历数据集, 记录每个数据项的支持度
  37. for trans in dataSet:
  38. for item in trans:
  39. headerTable[item] = headerTable.get(item, 0) + 1
  40.  
  41. #根据最小支持度过滤
  42. lessThanMinsup = list(filter(lambda k:headerTable[k] < minSup, headerTable.keys()))
  43. for k in lessThanMinsup: del(headerTable[k])
  44.  
  45. freqItemSet = set(headerTable.keys())
  46. #如果所有数据都不满足最小支持度,返回None, None
  47. if len(freqItemSet) == 0:
  48. return None, None
  49.  
  50. for k in headerTable:
  51. headerTable[k] = [headerTable[k], None]
  52.  
  53. retTree = treeNode('φ', 1, None)
  54. #第二次遍历数据集,构建fp-tree
  55. for tranSet, count in dataSet.items():
  56. #根据最小支持度处理一条训练样本,key:样本中的一个样例,value:该样例的的全局支持度
  57. localD = {}
  58. for item in tranSet:
  59. if item in freqItemSet:
  60. localD[item] = headerTable[item][0]
  61.  
  62. if len(localD) > 0:
  63. #根据全局频繁项对每个事务中的数据进行排序,等价于 order by p[1] desc, p[0] desc
  64. orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: (p[1],p[0]), reverse=True)]
  65. updateTree(orderedItems, retTree, headerTable, count)
  66. return retTree, headerTable
  67.  
  68. def updateTree(items, inTree, headerTable, count):
  69. if items[0] in inTree.children: # check if orderedItems[0] in retTree.children
  70. inTree.children[items[0]].inc(count) # incrament count
  71. else: # add items[0] to inTree.children
  72. inTree.children[items[0]] = treeNode(items[0], count, inTree)
  73. if headerTable[items[0]][1] == None: # update header table
  74. headerTable[items[0]][1] = inTree.children[items[0]]
  75. else:
  76. updateHeader(headerTable[items[0]][1], inTree.children[items[0]])
  77.  
  78. if len(items) > 1: # call updateTree() with remaining ordered items
  79. updateTree(items[1:], inTree.children[items[0]], headerTable, count)
  80.  
  81. def updateHeader(nodeToTest, targetNode): # this version does not use recursion
  82. while (nodeToTest.nodeLink != None): # Do not use recursion to traverse a linked list!
  83. nodeToTest = nodeToTest.nodeLink
  84. nodeToTest.nodeLink = targetNode
  85.  
  86. simpDat = loadSimpDat()
  87. dictDat = createInitSet(simpDat)
  88. myFPTree,myheader = createTree(dictDat, 3)
  89. myFPTree.disp()

  上面的代码在第一次扫描后并没有将每条训练数据过滤后的项排序,而是将排序放在了第二次扫描时,这可以简化代码的复杂度。

  控制台信息:

项的顺序对FP树的影响

  值得注意的是,对项的关键字排序将会影响FP树的结构。下面两图是相同训练集生成的FP树,图1除了按照最小支持度排序外,未对项做任何处理;图2则将项按照关键字进行了降序排序。树的结构也将影响后续发现频繁项的结果。

图1 未对项的关键字排序

图2 对项的关键字降序排序

  下篇继续,介绍如何发现频繁项集。


   出处:微信公众号 "我是8位的"

  本文以学习、研究和分享为主,如需转载,请联系本人,标明作者和出处,非商业用途!

   扫描二维码关注作者公众号“我是8位的”

FP-growth算法发现频繁项集(一)——构建FP树的更多相关文章

  1. FP-growth算法发现频繁项集(二)——发现频繁项集

    上篇介绍了如何构建FP树,FP树的每条路径都满足最小支持度,我们需要做的是在一条路径上寻找到更多的关联关系. 抽取条件模式基 首先从FP树头指针表中的单个频繁元素项开始.对于每一个元素项,获得其对应的 ...

  2. 【机器学习实战】第12章 使用FP-growth算法来高效发现频繁项集

    第12章 使用FP-growth算法来高效发现频繁项集 前言 在 第11章 时我们已经介绍了用 Apriori 算法发现 频繁项集 与 关联规则.本章将继续关注发现 频繁项集 这一任务,并使用 FP- ...

  3. 【机器学习实战】第12章 使用 FP-growth 算法来高效发现频繁项集

    第12章 使用FP-growth算法来高效发现频繁项集 前言 在 第11章 时我们已经介绍了用 Apriori 算法发现 频繁项集 与 关联规则.本章将继续关注发现 频繁项集 这一任务,并使用 FP- ...

  4. FP - growth 发现频繁项集

    FP - growth是一种比Apriori更高效的发现频繁项集的方法.FP是frequent pattern的简称,即常在一块儿出现的元素项的集合的模型.通过将数据集存储在一个特定的FP树上,然后发 ...

  5. 机器学习实战 - 读书笔记(12) - 使用FP-growth算法来高效发现频繁项集

    前言 最近在看Peter Harrington写的"机器学习实战",这是我的学习心得,这次是第12章 - 使用FP-growth算法来高效发现频繁项集. 基本概念 FP-growt ...

  6. 机器学习实战(Machine Learning in Action)学习笔记————08.使用FPgrowth算法来高效发现频繁项集

    机器学习实战(Machine Learning in Action)学习笔记————08.使用FPgrowth算法来高效发现频繁项集 关键字:FPgrowth.频繁项集.条件FP树.非监督学习作者:米 ...

  7. FP-growth算法高效发现频繁项集(Python代码)

    FP-growth算法高效发现频繁项集(Python代码) http://blog.csdn.net/leo_xu06/article/details/51332428

  8. Python两步实现关联规则Apriori算法,参考机器学习实战,包括频繁项集的构建以及关联规则的挖掘

    .caret, .dropup > .btn > .caret { border-top-color: #000 !important; } .label { border: 1px so ...

  9. 使用FP-Growth算法高效发现频繁项集【zz】

    FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对.为了达到这样的效果,它采用了一种简洁的数据结 ...

随机推荐

  1. 『PyTorch』第二弹重置_Tensor对象

    『PyTorch』第二弹_张量 Tensor基础操作 简单的初始化 import torch as t Tensor基础操作 # 构建张量空间,不初始化 x = t.Tensor(5,3) x -2. ...

  2. HBase基于region数目和data locality来balance regions

    1.  在Hbase的运维过程中,我们经常需要做如下操作: 移动 regionserver 到其他的 regionserver group中 下线一台机器 增加一台机器 移动 table 到其他 re ...

  3. thinkphp导出报表

    这是我写的一个方法,这个方法可以直接使用在你的代码上.下面我画红色的就是要修改或者删除的.public function import(){ /*创建PHPEXCLE读取,默认excel2007,最好 ...

  4. OAF中下载附件之后页面失效,报过时的数据异常,浏览器后退异常

    我在使用了下载功能之后,再往页面添加行或进行保存,页面老是报浏览器后退的异常. 猜测是因为我的下载按钮使用的submitButton,它隐式的包含了一个submit动作,且我在代码中有一个Commit ...

  5. quartz---的jobDateil,Trigger的存值

    quartz---的jobDateil,Trigger的存值 package com.imooc.demo.helloQuartz; import java.text.SimpleDateFormat ...

  6. dubbo监控中心搭建

    从网上下载了一个dubbo监控中心,地址忘了,文件名是dubbo-monitor-simple-2.5.3-assembly.tar.gz. 修改监控中心配置文件如下: dubbo.container ...

  7. tensoflow学习入门一

    对于如何创建图并开启session,参考如下 # -- encoding:utf-8 -- import tensorflow as tf # 定义常量矩阵a和矩阵b a=tf.constant([[ ...

  8. 亿图图示与visio结合使用

    亿图图示与visio结合使用 Model 图例   思维导图 Camp Awards 思维导图 思维导图 Englilsh camp activity plan 项目管理 Auto WBS 商务 错误 ...

  9. html <frame>标签使用

    标签定义 frameset 中的一个特定的窗口(框架) frameset中的每个框架都可以设置不同的属性,比如border,scrolling,noresize等 frame的常用属性 width: ...

  10. net负载均衡服务器架构网址

    https://blog.csdn.net/orichisonic/article/details/71122291 https://blog.csdn.net/huangxiangec/articl ...