1. 上一篇博客中,详细介绍了UserCFItemCFItemCF,就是通过用户的历史兴趣,把两个物品关联起来,这两个物品,可以有很高的相似度,也可以没有联系,比如经典的沃尔玛
    的啤酒尿布案例。通过ItemCF,能能够真正实现个性化推荐,最大限度地挖掘用户的需求。在购物网站和电子商务,图书中,应用特别广泛。需要维护物品相似度表。sparkMLlib中,
    FP-Growth树挖掘物品的相关度,应用很多。关于FP-Growth树的介绍,有很多博文,不详细说了。他相对于Apriori算法,做了很大的改进,大大降低了时间复杂度。构建FP-Growth
    树的过程,还需要维护一个头表(链表),用来存储频繁项集的前缀路径。下面的一张图,可以说明:
  2.  

  3. FP-Growth增长树中挖掘出频繁项集后,比如:啤酒3 鸡肉2 果汁2 | 尿布3,设置了minConf(最小置信度)后,当用户(或者是一个新用户)购买了尿布时,可以给他推荐啤酒,鸡肉。下面的代码,说明了这一原理:
  1. package com.txq.spark.test
  2.  
  3. /**
    * Created by ACER on 2016/11/22.
    */
    case class ItemFreq(val item:String,val freq:Double) {
  4.  
  5. }
  6.  
  7. package com.txq.spark.test
  8.  
  9. import java.util.concurrent.ConcurrentHashMap
    import org.apache.spark.mllib.fpm.FPGrowth
    import org.apache.spark.{SparkConf, SparkContext}
    import scala.collection._
  10.  
  11. /**
    * Created by ACER on 2016/11/20.
    */
    object Test1 {
    System.setProperty("hadoop.home.dir", "D://hadoop-2.6.2");
    val conf = new SparkConf().setMaster("local").setAppName("testFP-Growth");
    val sc = new SparkContext(conf);
  12.  
  13. var freqMap = new ConcurrentHashMap[mutable.ArrayBuffer[String],mutable.ArrayBuffer[ItemFreq]]();//捆绑推销(key值为用户购买的历史商品)
    val items = new ConcurrentHashMap[Long,mutable.ArrayBuffer[String]]()//用户购买的历史商品
    val minSupport = 0.5//最小支持度
    val minConf = 0.75//最小置信度
    var freq = 0L//用户历史商品出现的次数
    var li = mutable.ArrayBuffer[ItemFreq]()
    def main(args: Array[String]): Unit = {
    //1.加载过去一段时间,大量用户购买的商品,数据源为商品列表,训练FP-Growth模型
    val data = sc.textFile("D://fp.txt").map(_.split(" ")).cache()
    val count = data.count()
    val fpg = new FPGrowth().setMinSupport(minSupport).setNumPartitions(3)
    val model = fpg.run(data)
  14.  
  15. //2.输出所有频繁项集
    val result = model.freqItemsets.filter(_.items.size >= 1)
    result.foreach(f => println(f.items.mkString(" ")+"->"+f.freq))
  16.  
  17. //3.获取用户id,并得到历史商品
    val userId = args(0).toLong
    var bucket:mutable.ArrayBuffer[String] = items.get(userId.toLong)
    if(bucket == null){
    bucket = new mutable.ArrayBuffer[String]()
    for(i <- 1 until args.length){
    bucket += (args(i))
    }
    }
    items.put(userId,bucket)//收集用户购买的历史商品
    for(item <- result){
    //4.在模型中找出与用户的历史商品相符合的频繁项集,得到频率
    if(item.items.mkString == items.get(userId).mkString){
    freq = item.freq
    }
    }
    println("历史商品出现的次数:" + freq)//调试信息(输出用户历史商品的支持度)
    //5.根据历史商品,找出置信度相对高的频繁项,推荐给用户
  18.  
  19. for(f <- result){
    if(f.items.mkString.contains(items.get(userId).mkString) && f.items.size > items.get(userId).size) {
    val conf:Double = f.freq.toDouble / freq.toDouble
    if(conf >= minConf) {
    //找出所有置信度大于minConf的项
    var item = f.items
    for (i <- 0 until items.get(userId).size) {
    item = item.filter(_ != items.get(userId)(i)) //过滤掉用户历史商品,剩下的为推荐的商品
    }
    for (str <- item) {
    li += ItemFreq(str, conf)
    }
    }
    }
    }
    freqMap.put(items.get(userId),li);
    println("推荐的商品为:")
    freqMap.get(items.get(userId)).foreach(f =>println(f.item + "->" + f.freq))
    }
    }
    挖掘出的频繁项集:
    尿布->3
    尿布 啤酒->3
  20.  
  21. 果汁->4
  22.  
  23. 鸡肉->4
    鸡肉 果汁->3
  24.  
  25. 啤酒->4
    啤酒 鸡肉->3
    啤酒 果汁->3
  26.  
  27. 历史商品出现的次数:4
  28.  
  29. 推荐的商品为:
    鸡肉->0.75
    啤酒->0.75
  30.  
  31. 测试文件为:
    果汁 鸡肉
    鸡肉 啤酒 鸡蛋 尿布
    果汁 啤酒 尿布 可乐
    果汁 鸡肉 啤酒 尿布
    鸡肉 果汁 啤酒 可乐

原创:协同过滤之spark FP-Growth树应用示例的更多相关文章

  1. 推荐系统-协同过滤在Spark中的实现

    作者:vivo 互联网服务器团队-Tang Shutao 现如今推荐无处不在,例如抖音.淘宝.京东App均能见到推荐系统的身影,其背后涉及许多的技术.本文以经典的协同过滤为切入点,重点介绍了被工业界广 ...

  2. 原创:协同过滤之ALS

    推荐系统的算法,在上个世纪90年代成型,最早应用于UserCF,基于用户的协同过滤算法,标志着推荐系统的形成.首先,要明白以下几个理论:①长尾理论②评判推荐系统的指标.之所以需要推荐系统,是要挖掘冷门 ...

  3. 协同过滤 CF & ALS 及在Spark上的实现

    使用Spark进行ALS编程的例子可以看:http://www.cnblogs.com/charlesblc/p/6165201.html ALS:alternating least squares ...

  4. 【转载】协同过滤 & Spark机器学习实战

    因为协同过滤内容比较多,就新开一篇文章啦~~ 聚类和线性回归的实战,可以看:http://www.cnblogs.com/charlesblc/p/6159187.html 协同过滤实战,仍然参考:h ...

  5. Spark MLlib之协同过滤

    原文:http://blog.selfup.cn/1001.html 什么是协同过滤 协同过滤(Collaborative Filtering, 简称CF),wiki上的定义是:简单来说是利用某兴趣相 ...

  6. Spark机器学习之协同过滤算法

    Spark机器学习之协同过滤算法 一).协同过滤 1.1 概念 协同过滤是一种借助"集体计算"的途径.它利用大量已有的用户偏好来估计用户对其未接触过的物品的喜好程度.其内在思想是相 ...

  7. Spark机器学习(11):协同过滤算法

    协同过滤(Collaborative Filtering,CF)算法是一种常用的推荐算法,它的思想就是找出相似的用户或产品,向用户推荐相似的物品,或者把物品推荐给相似的用户.怎样评价用户对商品的偏好? ...

  8. 协同过滤 spark scala

    1 http://www.cnblogs.com/charlesblc/p/6165201.html [转载]协同过滤 & Spark机器学习实战 2 基于Spark构建推荐引擎之一:基于物品 ...

  9. Spark 基于物品的协同过滤算法实现

    J由于 Spark MLlib 中协同过滤算法只提供了基于模型的协同过滤算法,在网上也没有找到有很好的实现,所以尝试自己实现基于物品的协同过滤算法(使用余弦相似度距离) 算法介绍 基于物品的协同过滤算 ...

随机推荐

  1. 学习笔记—log4net

    一.log4net.dll下载地址:http://logging.apache.org/log4net/download_log4net.cgi 二.在项目中引用log4net.dll 三.设置在程序 ...

  2. 文件包含漏洞File Inclusion

    文件包含漏洞 目录遍历漏洞在国内外有许多不同的叫法,也可以叫做信息泄露漏洞.非授权文件包含漏洞等. 文件包含分类 LFI:本地文件包含(Local File Inclusion) RFI:远程文件包含 ...

  3. 处理vue-quill-editor回显数据的时候没有空格问题

    这是我要实现的效果 这是我回显后的情况(可以看见空格都没有了) 处理后 处理方法  添加一个class="ql-editor" <quill-editor class=&qu ...

  4. nginx-1.12.0安装

    1.配置相关环境: yum install -y gcc glibc gcc-c++ zlib pcre-devel openssl-devel rewrite模块需要pcre库 ssl功能需要ope ...

  5. 解决IDEA Java Web项目没问题,但部署时出错的问题

    如果确定代码没问题,那多半是项目中用到的库没有被Tomcat复制到部署位置的lib目录下. 点击调试/运行,看到控制台Tomcat在部署,但一直不弹出浏览器页面,Tomcat控制台报错如下: 是在Ar ...

  6. Java 相等判断

    ==的判断机制是:根据两边的内存地址是否相同来判断. equals()是Object类的一个实例方法,判断机制和 == 完全一样. String类重写了equals()方法,是根据数据值来判断的. 总 ...

  7. 缓存注解@Cacheable、@CacheEvict、@CachePut使用及注解失效时间

    从3.1开始,Spring引入了对Cache的支持.其使用方法和原理都类似于Spring对事务管理的支持.Spring Cache是作用在方法上的,其核心思想是这样的:当我们在调用一个缓存方法时会把该 ...

  8. 实验之RSTP基础配置

    STP升级版之RSTP 实验环境 实验拓扑图 实验编址 实验步骤 1.基本配置配置PC端 测试i相通性 2.配置RSTP基本功能在S1-S4上都使用命令stp mode rstp更改生成树模式(因为华 ...

  9. mysql类似to_char()to_date()函数mysql日期和字符相互转换方法date_f

    mysql 类似to_char() to_date()函数mysql日期和字符相互转换方法 date_format(date,'%Y-%m-%d') -------------->oracle中 ...

  10. 使用CefSharp在C#访问网站,支持x86和x64

    早已久仰CefSharp大名,今日才得以实践,我其实想用CefSharp来访问网站页面,然后抓取html源代码进行分析,如果使用自带的WebBrowser控件,可能会出现一些不兼容js的错误. Cef ...