下面简要地回顾一下在第一篇文章中所谈到的内容。
  
  Ignite是一个分布式的内存数据库、缓存和处理平台,为事务型、分析型和流式负载而设计,在保证扩展性的前提下提供了内存级的性能。
  
  Spark是一个流式数据和计算引擎,通常从HDFS或者其他存储中获取数据,一直以来,他都倾向于OLAP型业务,并且聚焦于MapReduce类型负载。
  
  因此,这两种技术是可以互补的。
  
  将Ignite与Spark整合
  
  整合这两种技术会为Spark用户带来若干明显的好处:
  
  通过避免大量的数据移动,获得真正可扩展的内存级性能;
  
  提高RDD、DataFrame和SQL的性能;
  
  在Spark作业之间更方便地共享状态和数据。
  
  下图中显示了如何整合这两种技术,并且标注了显著的优势:
  
  在第一篇文章中,主要聚焦于IgniteRDD,而本文会聚焦于IgniteDataFrames。
  
  IgniteDataframes
  
  Spark的DataFrame API为描述数据引入了模式的概念,Spark通过表格的形式进行模式的管理和数据的组织。
  
  DataFrame是一个组织为命名列形式的分布式数据集,从概念上讲,DataFrame等同于关系数据库中的表,并允许Spark使用Catalyst查询优化器来生成高效的查询执行计划。而RDD只是跨集群节点分区化的元素集合。
  
  Ignite扩展了DataFrames,简化了开发,改进了将Ignite作为Spark的内存存储时的数据访问时间,好处包括:
  
  通过Ignite读写DataFrames时,可以在Spark作业之间共享数据和状态;
  
  通过优化Spark的查询执行计划加快SparkSQL查询,这些主要是通过IgniteSQL引擎的高级索引以及避免了Ignite和Spark之间的网络数据移动实现的。
  
  IgniteDataframes示例
  
  下面通过一些代码以及搭建几个小程序的方式,了解Ignite DataFrames如何使用,如果想实际运行这些代码,可以从GitHub上下载。
  
  一共会写两个Java的小应用,然后在IDE中运行,还会在这些Java应用中执行一些SQL。
  
  一个Java应用会从JSON文件中读取一些数据,然后创建一个存储于Ignite的DataFrame,这个JSON文件Ignite的发行版中已经提供,另一个Java应用会从Ignite的DataFrame中读取数据然后使用SQL进行查询。
  
  下面是写应用的代码:
  
  public class DFWriter {
  
  private static final String CONFIG = "config/example-ignite.xml";
  
  public static void main(String args[]) {
  
  Ignite ignite = Ignition.start(CONFIG);
  
  SparkSession spark = SparkSession
  
  .builder()
  
  .appName("DFWriter")
  
  .master("local")
  
  .config("spark.executor.instances", "2")
  
  .getOrCreate();
  
  Logger.getRootLogger().setLevel(Level.OFF);
  
  Logger.getLogger("org.apache.ignite").setLevel(Level.OFF);
  
  Dataset<Row> peopleDF = spark.read().json(
  
  resolveIgnitePath("resources/people.json").getAbsolutePath());
  
  System.out.println("JSON file contents:");
  
  peopleDF.show();
  
  System.out.println("Writing DataFrame to Ignite.");
  
  peopleDF.write(www.mingcheng178.com)
  
  .format(IgniteDataFrameSettings.FORMAT_IGNITE())
  
  .option(IgniteDataFrameSettings.OPTION_CONFIG_FILE(), CONFIG)
  
  .option(IgniteDataFrameSettings.OPTION_TABLE(), "people")
  
  .option(IgniteDataFrameSettings.OPTION_CREATE_TABLE_PRIMARY_KEY_FIELDS(), "id")
  
  .option(IgniteDataFrameSettings.OPTION_CREATE_TABLE_PARAMETERS(), "template=replicated")
  
  .save();
  
  System.out.println("Done!");
  
  Ignition.stop(false);
  
  }
  
  }
  
  在DFWriter中,首先创建了SparkSession,它包含了应用名,之后会使用spark.read().json()读取JSON文件并且输出文件内容,下一步是将数据写入Ignite存储。下面是DFReader的代码:
  
  public class DFReader {
  
  private static final String CONFIG = "config/example-ignite.xml";
  
  public static void main(String args[]) {
  
  Ignite ignite = Ignition.start(CONFIG);
  
  SparkSession spark = SparkSession
  
  .builder()
  
  .appName("DFReader"www.gcyL157.com)
  
  .master("local")
  
  .config("spark.executor.instances", "2")
  
  .getOrCreate();
  
  Logger.getRootLogger().setLevel(Level.OFF);
  
  Logger.getLogger("org.apache.ignite").setLevel(Level.OFF);
  
  System.out.println("Reading data from Ignite table.");
  
  Dataset<Row> peopleDF = spark.read()
  
  .format(IgniteDataFrameSettings.FORMAT_IGNITE())
  
  .option(IgniteDataFrameSettings.OPTION_CONFIG_FILE(), CONFIG)
  
  .option(IgniteDataFrameSettings.www.mcyllpt.com OPTION_TABLE(), "people")
  
  .load();
  
  peopleDF.createOrReplaceTempView("people");
  
  Dataset<Row> sqlDF = spark.sql("SELECT * FROM people WHERE id > 0 AND id < 6");
  
  sqlDF.show(www.mhylpt.com/  );
  
  System.out.println("Done!");
  
  Ignition.stop(false);
  
  }
  
  }
  
  在DFReader中,初始化和配置与DFWriter相同,这个应用会执行一些过滤,需求是查找所有的id > 0 以及 < 6的人,然后输出结果。
  
  在IDE中,通过下面的代码可以启动一个Ignite节点:
  
  public class ExampleNodeStartup www.michenggw.com {
  
  public static void main(String[] args) throws IgniteException {
  
  Ignition.start("config/example-ignite.xml");
  
  }
  
  }
  
  到此,就可以对代码进行测试了。
  
  运行应用
  
  首先在IDE中启动一个Ignite节点,然后运行DFWriter应用,输出如下:
  
  JSON file www.dfgjpt.com contents:
  
  +-------------------+---+------------------+
  
  | department| id| name|
  
  +-------------------+---+------------------+
  
  |Executive Committee| 1| Ivan Ivanov|
  
  |Executive Committee| 2| Petr Petrov|
  
  | Production| 3| John Doe|
  
  | Production| 4| Ann Smith|
  
  | Accounting| 5| Sergey Smirnov|
  
  | Accounting| 6|Alexandra Sergeeva|
  
  | IT| 7| Adam West|
  
  | Head Office| 8| Beverley Chase|
  
  | Head Office| 9| Igor Rozhkov|
  
  | IT| 10|Anastasia Borisova|
  
  +-------------------+---+------------------+
  
  Writing DataFrame to Ignite.
  
  Done!
  
  如果将上面的结果与JSON文件的内容进行对比,会显示两者是一致的,这也是期望的结果。
  
  下一步会运行DFReader,输出如下:
  
  Reading data from Ignite table.
  
  +-------------------+--------------+---+
  
  | DEPARTMENT| NAME| ID|
  
  +-------------------+--------------+---+
  
  |Executive Committee| Ivan Ivanov| 1|
  
  |Executive Committee| Petr Petrov| 2|
  
  | Production| John Doe| 3|
  
  | Production| Ann Smith| 4|
  
  | Accounting|Sergey Smirnov| 5|
  
  +-------------------+--------------+---+
  
  Done!
  
  这也是期望的输出。
  
  总结
  
  通过本文,会发现使用Ignite DataFrames是如何简单,这样就可以通过Ignite DataFrame进行数据的读写了。
  
  未来,这些代码示例也会作为Ignite发行版的一部分进行发布。
  
  关于Ignite和Spark的集成,内容就是这些了。

Ignite集成Spark之IgniteDataFrames的更多相关文章

  1. Ignite(三): Ignite VS Spark

    参考:https://www.itcodemonkey.com/article/9613.html gnite 和 Spark,如果笼统归类,都可以归于内存计算平台,然而两者功能上虽然有交集,并且 I ...

  2. CDH搭建和集成spark、kafka操作

    系统:Centos7 CDH版本:5.14.0 请自己提前安装好:mysql.jdk 并下载好相关依赖(每一台机器) yum -y install chkconfig python bind-util ...

  3. Apache Hudi集成Spark SQL抢先体验

    Apache Hudi集成Spark SQL抢先体验 1. 摘要 社区小伙伴一直期待的Hudi整合Spark SQL的PR正在积极Review中并已经快接近尾声,Hudi集成Spark SQL预计会在 ...

  4. Ignite与Spark集成时,ClassNotFoundException问题解决

    参考文章:https://apacheignite-fs.readme.io/docs/installation-deployment Spark application deployment mod ...

  5. 详解 jupyter notebook 集成 spark 环境安装

    来自: 代码大湿 代码大湿 1 相关介绍 jupyter notebook是一个Web应用程序,允许你创建和分享,包含活的代码,方程的文件,可视化和解释性文字.用途包括:数据的清洗和转换.数值模拟.统 ...

  6. spring-boot集成spark并使用spark-sql

    首先添加相关依赖: <?xml version="1.0" encoding="UTF-8"?> <project xmlns="h ...

  7. Spark Ignite踩坑记录

    Ignite spark 踩坑记录 简述 ignite访问数据有两种模式: Thin Jdbc模式: Jdbc 模式和Ignite client模式: shell客户端输出问题,不能输出全列: 针对上 ...

  8. Ignite(二): 架构及工具

    1.集群和部署 Ignite集群基于无共享架构,所有的集群节点都是平等的,独立的,整个集群不存在单点故障. 通过灵活的Discovery SPI组件,Ignite节点可以自动地发现对方,因此只要需要, ...

  9. Spark与缓存

    预期成果 1.1   当前问题 当前以图搜图应用存在的问题: 当前使用spark RDD方案无法达到数据实时加载(每10分钟加载一次,虽然可配,但太短可能会有问题) Spark RDD内存会被分为两部 ...

随机推荐

  1. 小白学phoneGap《构建跨平台APP:phoneGap移动应用实战》连载二(生命周期)

    4.1 什么是生命周期 想要真正地理解PhoneGap应用开发的内涵,首先需要理解什么是生命周期.这在字面上其实非常容易理解,一个应用从开始运行被手机加载到应用被退出之间的过程就称之为一个生命周期.为 ...

  2. log4sql介绍

    log4sql介绍log4j环境中简单配置的情况下可收集执行的SQL语句和JDBC执行情况,如预编译的”?“显示成参数的实际值 下载log4sql.jar第一步:http://log4sql.sour ...

  3. cookie安全

    www.baidu.com host 文件 定义 a.baidu.com 为127.0.01 本地编写php程序 读取浏览器发送给 a.baidu.com的cookie 会把 .baidu.com域下 ...

  4. 编程中什么是「Context(上下文)」?

    https://www.zhihu.com/question/26387327 每一段程序都有很多外部变量.只有像Add这种简单的函数才是没有外部变量的.一旦你的一段程序有了外部变量,这段程序就不完整 ...

  5. 万事先问『为什么』 what why how

    万事先问『为什么』! 遇到问题时,很多人的行为模式顺序是,先问『做什么』,『怎么做』,他们从来不问『为什么』,他们对根源性问题很模糊. 而聪明人则是先问『为什么』,再去构建『怎么做』,而『做什么』就是 ...

  6. Bootstrap历练实例:超小的按钮

    <!DOCTYPE html><html><head> <meta http-equiv="Content-Type" content=& ...

  7. java在线聊天项目 swt可视化窗口Design 好友列表窗口

    熟练使用各种布局方式 FlowLayout 流布局 left center right等 BorderLayout 边框布局 east west sorth north center Absolute ...

  8. phpstorm设置方法头信息备注

    一.目标,如下图,希望在方法上增加如下头信息备注 二.设置live template: 三.增加方法头信息备注,如下所示: * created by ${USER} at ${DATE} ${TIME ...

  9. Centos7.2 上部署 FastDFS_V5.05

    1.安装gcc (编译时需要) [root@localhost~]# yum -y install gcc gcc-c++ 2.安装libevent ,FastDFS依赖libevent库; [roo ...

  10. 如何用纯 CSS 创作一个雷达扫描动画

    效果预览 在线演示 按下右侧的"点击预览"按钮可以在当前页面预览,点击链接可以全屏预览. https://codepen.io/comehope/pen/VdbGvr 可交互视频 ...