//获取出每天前3的搜索词
ArrayList<String> log = new ArrayList<String>();
log.add("2015-10-01,leo,a1,beijing,android");
log.add("2015-10-01,leo,a1,beijing,android");
log.add("2015-10-01,tom,a1,beijing,android");
log.add("2015-10-01,jack,a1,beijing,android");
log.add("2015-10-01,marry,a1,beijing,android");
log.add("2015-10-01,tom,bbf,beijing,android");
log.add("2015-10-01,jack,bbf,beijing,iphone");
log.add("2015-10-01,jack,bbf,beijing,android");
log.add("2015-10-01,leo,ttyu,beijing,android");
log.add("2015-10-01,leo,ttyu,beijing,android");
log.add("2015-10-01,wede,a1,beijing,android");
log.add("2015-10-01,wede,bbf,beijing,iphone");
log.add("2015-10-02,leo,a2,beijing,android");
log.add("2015-10-02,tom,a2,beijing,android");
log.add("2015-10-02,tom,a2,beijing,android");
log.add("2015-10-02,jack,a1,beijing,android");
log.add("2015-10-02,marry,a1,beijing,android");
log.add("2015-10-02,leo,bbf,beijing,iphone");
log.add("2015-10-02,jack,bbf,beijing,android");
log.add("2015-10-02,wede,bbf,beijing,android");
log.add("2015-10-02,leo,ttyu,beijing,android");
log.add("2015-10-02,leo,ttyu,beijing,android");
log.add("2015-10-02,jack,a1,beijing,android");
log.add("2015-10-02,wede,tour,beijing,android"); SparkConf conf = new SparkConf()
// .setMaster("local")
.setAppName("Top3UV");
JavaSparkContext sc = new JavaSparkContext(conf);
HiveContext sqlContext = new HiveContext(sc.sc()); JavaRDD<String> rdd_list = sc.parallelize(log, 2);
//0条件使用broadcast(每个worker节点共享一个变量)
final org.apache.spark.broadcast.Broadcast<String> bc = sc.broadcast("iphone"); //1条件过滤
JavaRDD<String> rdd_filter_list = rdd_list.filter(new Function<String, Boolean>() {
@Override
public Boolean call(String v1) throws Exception {
String ary[] = v1.split(",");
String platform = ary[4];
if (platform.contains(bc.value()))
return false;
return true;
}
});
//2将每行数据构建成tuple2
JavaPairRDD<String, String> rdd_tuple2_list = rdd_filter_list.mapToPair(new PairFunction<String, String, String>() {
@Override
public Tuple2<String, String> call(String s) throws Exception {
String ary[] = s.split(",");
String time = ary[0];
String word = ary[2];
String userName = ary[1];
return new Tuple2<String, String>(time + "_" + word, userName);
}
});
//3按照tuple._1进行combiner
JavaPairRDD<String, Iterable<String>> rdd_byKey = rdd_tuple2_list.groupByKey(); //4按照tuple._1进行用户数量去重后的统计
JavaPairRDD<String, Integer> rdd_byKey_uv = rdd_byKey.mapToPair(new PairFunction<Tuple2<String, Iterable<String>>, String, Integer>() {//tuple._1仍然为时间_搜索词,而tuple._2变为用户去重后的数量
@Override
public Tuple2<String, Integer> call(Tuple2<String, Iterable<String>> stringIterableTuple2) throws Exception {
String tuple_1 = stringIterableTuple2._1();
Iterable<String> userNames = stringIterableTuple2._2();
Set<String> userNameSet = new HashSet<String>();
for (String item : userNames) {
userNameSet.add(item);//用户名称
}
return new Tuple2<String, Integer>(tuple_1, userNameSet.size());
}
}); //5构建rdd<Row>用来映射DataFrame
JavaRDD<Row> rdd_byKey_row_uv = rdd_byKey_uv.map(new Function<Tuple2<String, Integer>, Row>() {
@Override
public Row call(Tuple2<String, Integer> stringIntegerTuple2) throws Exception {
String ary[] = stringIntegerTuple2._1().split("_");
return RowFactory.create(ary[0], ary[1], stringIntegerTuple2._2());
}
}); List<StructField> list = new ArrayList<StructField>();
list.add(DataTypes.createStructField("date", DataTypes.StringType, true));
list.add(DataTypes.createStructField("word", DataTypes.StringType, true));
list.add(DataTypes.createStructField("uv_num", DataTypes.IntegerType, true));
StructType tmpType = DataTypes.createStructType(list);
DataFrame df_tuple = sqlContext.createDataFrame(rdd_byKey_row_uv, tmpType);
df_tuple.registerTempTable("tuple_keyDS_valUN"); //6使用DataFrame结合开窗函数row_number分组后过滤出访问量前3的搜索词
StringBuilder _sb = new StringBuilder();
_sb.append("select date,word,uv_num from ( ");
_sb.append(" select date,word,uv_num, row_number() OVER (PARTITION BY date ORDER BY uv_num DESC ) as rank from tuple_keyDS_valUN ");
_sb.append(" ) tmp_group_top3 where rank<=3"); DataFrame df_tuple_groupTop3 = sqlContext.sql(_sb.toString()).cache();
//df_tuple_groupTop3.show();//***************在最下面打印 //=====到这里已经获取到每天前3的“搜索词“和“uv数“,并倒叙排序 //在获取每天排名前三“搜索词”的总uv数 //7将结果从DataFrame转换回rdd,并拼接成tuple2(日期,总访问量_访问词)
JavaPairRDD<String, String> rdd_uvKey = df_tuple_groupTop3.javaRDD().mapToPair(new PairFunction<Row, String, String>() {
@Override
public Tuple2<String, String> call(Row row) throws Exception {
String date = row.getString(0);
String word = row.getString(1);
Integer uv_mun = row.getInt(2);
return new Tuple2<String, String>(date, uv_mun + "_" + word);
}
}); //8mapToPair后继续按照key合并
JavaPairRDD<String, Iterable<String>> rdd_dateKey_group = rdd_uvKey.groupByKey(); JavaPairRDD<Integer, String> rdd_uvKey_combiner = rdd_dateKey_group.mapToPair(new PairFunction<Tuple2<String, Iterable<String>>, Integer, String>() {
@Override
public Tuple2<Integer, String> call(Tuple2<String, Iterable<String>> stringIterableTuple2) throws Exception {
Integer uv_sum = 0;
String data_word = "";
Iterable<String> uv_word = stringIterableTuple2._2();
Iterator<String> uv_word_it = uv_word.iterator();
for (; uv_word_it.hasNext(); ) {
String uv_word_str = uv_word_it.next();
String ary[] = uv_word_str.split("_");
Integer uv = Integer.valueOf(ary[0]);
uv_sum += uv;//累加总uv数
String word = ary[1];
data_word += stringIterableTuple2._1() + "_" + word + "|";
} return new Tuple2<Integer, String>(uv_sum, data_word);
}
}); JavaPairRDD<Integer, String> rdd_uvKey_sort = rdd_uvKey_combiner.sortByKey(false); List<Tuple2<Integer, String>> ret = rdd_uvKey_sort.collect();
for (Tuple2<Integer, String> item : ret) {
System.out.println(item._1() + "<--->" + item._2());
}
df_tuple_groupTop3.show();

spark-sql缩减版样例:获取每日top3搜索词和各自的次数,包括总次数的更多相关文章

  1. HttpClient4.3.3 使用样例—获取静态资源

    HttpClient4.3.3 使用样例—获取静态资源 学习了:http://shihlei.iteye.com/blog/2067688

  2. spark单机部署及样例运行

    spark单机运行部署 环境预装 需要预先下载jdk和spark.机器使用centos6.6(推荐).然后依次运行 [root@spark-master root]# cd /root #安装必要的软 ...

  3. python获取每日涨跌停股票统计,封闭时间和打开次数

    接口:limit_list 描述:获取每日涨跌停股票统计,包括封闭时间和打开次数等数据,帮助用户快速定位近期强(弱)势股,以及研究超短线策略. 限量:单次最大1000,总量不限制 积分:用户积2000 ...

  4. SQL集合操作符样例(UNION,INTERSECT,EXCEPT)

    由于MYSQL目前只实现了UNION, 所以后面两个就没得玩罗.... SELECT emp_id, assigned_branch_id -> FROM employee -> WHER ...

  5. php 获取淘宝搜索词 内容

    $s = file_get_contents('http://suggest.taobao.com/sug?extras=1&code=utf-8&callback=g_ks_sugg ...

  6. SQL SEVER 2008中的演示样例数据库

    SQL SEVER 2008数据库是什么我就不说了,我在这里分享一下怎样学习SQL SEVER 2008数据库,假设是对数据库或是SQL SEVER 数据库全然陌生或是不熟悉的人来说,建议看看一些视频 ...

  7. 48、Spark SQL之与Spark Core整合之每日top3热点搜索词统计案例实战

    一.概述 1.需求分析 数据格式: 日期 用户 搜索词 城市 平台 版本 需求: 1.筛选出符合查询条件(城市.平台.版本)的数据 2.统计出每天搜索uv排名前3的搜索词 3.按照每天的top3搜索词 ...

  8. spark mllib lda 中文分词、主题聚合基本样例

    github https://github.com/cclient/spark-lda-example spark mllib lda example 官方示例较为精简 在官方lda示例的基础上,给合 ...

  9. Spark SQL 之 Data Sources

    #Spark SQL 之 Data Sources 转载请注明出处:http://www.cnblogs.com/BYRans/ 数据源(Data Source) Spark SQL的DataFram ...

随机推荐

  1. FizzBuzz

    写一个程序,输出从 1 到 n 数字的字符串表示. 1. 如果 n 是3的倍数,输出“Fizz”: 2. 如果 n 是5的倍数,输出“Buzz”: 3.如果 n 同时是3和5的倍数,输出 “FizzB ...

  2. 20175226 2018-2019-2 《Java程序设计》第三周学习总结

    20175226 2018-2019-2 <Java程序设计>第三周学习总结 教材学习内容总结 编程语言的几个发展阶段 类面向机器语言(汇编语言).面向过程语言(C语言).面向对象语言(J ...

  3. MongoDB超级简明入门教程

    1.概念篇 MongoDB和MySQL分别作为非关系型数据库和关系型数据库的代表,通过它们之间的对比可以很快的建立起对MongoDB的认知. MongoDB MySQL 数据库(Database) 数 ...

  4. MQTT服务器的搭建(Windows平台)

    人工智能.智能家居越来越火,在服务器和多个终端进行通信的过程中使用传统的请求/回答(Request/Response)模式已经过时,伴随而来的是发布/订阅(Publish/Subscribe)模式-- ...

  5. Apache访问日志记录用户的每一个请求

    我们使用的是/usr/local/apache2.4/conf/extra/httpd-vhosts.conf配置文件下的第二段配置,它的日志在/usr/local/apache2.4/logs/下面 ...

  6. chattr和lsattr的基本用法

    lsattr filename  查看一个文件的属性 chattr filename  改变一个文件的属性 主要用途:实现文件的原有内容不允许改变,但可以增加新行,则需通过改变文件的属性来实现. ch ...

  7. commanderJs编写命令行工具(cli)

    前言: 最近需要做一个内部的node cli来独立构建流程,对整个命令行工具实现流程有了大致了解,下面来解释一下如何实现一个cli,和如何使用 commander 库.   新手误区: 在开始实现之前 ...

  8. react和redux版本不匹配

    1.页面报错Cannot read property 'shape' of undefined 2. 原因为:react版本与react-redux版本不匹配. 1.package.json文件修改该 ...

  9. (Android UI)Action Bar

    Action Bar 指明用户当前所在的界面,添加多个功能性按键和下拉式选择框,以提供能多功能. 主题一:让应用具备ActionBar 可能条件一:Support Android 3.0(API 11 ...

  10. S0.0 计算机如何看东西

    标签(空格分隔):数字图像处理 opencv 当我们用特定软件打开一张图片或者更改某些位图的格式为txt时,就会发现图像的本质不过就是一堆数据罢了. 采样 我们可以用相机采样到一幅二维图像,图像的分辨 ...