1.需求分析

订单是统计分析的重要的对象,围绕订单有很多的维度统计需求,比如用户、地区、商品、品类、品牌等等。为了之后统计计算更加方便,减少大表之间的关联,所以在实时计算过程中将围绕订单的相关数据整合成为一张订单的宽表。那究竟哪些数据需要和订单整合在一起?

如上图,由于在之前的操作(BaseDbTask)我们已经把数据分拆成了事实数据和维度数据,事实数据(绿色)进入 kafka 数据流(DWD 层)中,维度数据(蓝色)进入 hbase 中长期保存。那么我们在 DWM 层中要把实时和维度数据进行整合关联在一起,形成宽表。那么这里就要处理有两种关联,事实数据和事实数据关联、事实数据和维度数据关联。

  • 事实数据和事实数据关联,其实就是流与流之间的关联。

  • 事实数据与维度数据关联,其实就是流计算中查询外部数据源。

2. 创建实体类

import java.math.BigDecimal;
/**
* @author zhangbao
* @date 2021/10/25 19:55
* @desc 订单
*/
@Data
public class OrderInfo {
   Long id;
   Long province_id;
   String order_status;
   Long user_id;
   BigDecimal total_amount;
   BigDecimal activity_reduce_amount;
   BigDecimal coupon_reduce_amount;
   BigDecimal original_total_amount;
   BigDecimal feight_fee;
   String expire_time;
   String create_time;
   String operate_time;
   String create_date; // 把其他字段处理得到
   String create_hour;
   Long create_ts;
}
import java.math.BigDecimal;
/**
* @author zhangbao
* @date 2021/10/25 19:55
* @desc 订单明细
*/
@Data
public class OrderDetail {
   Long id;
   Long order_id ;
   Long sku_id;
   BigDecimal order_price ;
   Long sku_num ;
   String sku_name;
   String create_time;
   BigDecimal split_total_amount;
   BigDecimal split_activity_amount;
   BigDecimal split_coupon_amount;
   Long create_ts;
}

3. 消费kafka事实数据

在dwm包下创建任务OrderWideApp.java,对订单及明细数据做格式转换,在这个阶段可以做一些ETL操作。

import cn.hutool.core.date.DateTime;
import cn.hutool.core.date.DateUnit;
import cn.hutool.core.date.DateUtil;
import com.alibaba.fastjson.JSONObject;
import com.zhangbao.gmall.realtime.bean.OrderDetail;
import com.zhangbao.gmall.realtime.bean.OrderInfo;
import com.zhangbao.gmall.realtime.utils.MyKafkaUtil;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.runtime.state.filesystem.FsStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;

/**
* @author zhangbao
* @date 2021/10/25 19:58
* @desc
*/
public class OrderWideApp {
   public static void main(String[] args) {
       //webui模式,需要添加pom依赖
       StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());
//       StreamExecutionEnvironment env1 = StreamExecutionEnvironment.createLocalEnvironment();
       //设置并行度
       env.setParallelism(4);
       //设置检查点
//       env.enableCheckpointing(5000, CheckpointingMode.EXACTLY_ONCE);
//       env.getCheckpointConfig().setCheckpointTimeout(60000);
//       env.setStateBackend(new FsStateBackend("hdfs://hadoop101:9000/gmall/flink/checkpoint/uniqueVisit"));
//       //指定哪个用户读取hdfs文件
//       System.setProperty("HADOOP_USER_NAME","zhangbao");

       //从kafka的dwd主题获取订单和订单详情
       String orderInfoTopic = "dwd_order_info";
       String orderDetailTopic = "dwd_order_detail";
       String orderWideTopic = "dwm_order_wide";
       String orderWideGroup = "order_wide_group";

       //订单数据
       FlinkKafkaConsumer<String> orderInfoSource = MyKafkaUtil.getKafkaSource(orderInfoTopic, orderWideGroup);
       DataStreamSource<String> orderInfoDs = env.addSource(orderInfoSource);

       //订单详情数据
       FlinkKafkaConsumer<String> orderDetailSource = MyKafkaUtil.getKafkaSource(orderDetailTopic, orderWideGroup);
       DataStreamSource<String> orderDetailDs = env.addSource(orderDetailSource);

       //对订单数据进行转换
       SingleOutputStreamOperator<OrderInfo> orderInfoObjDs = orderInfoDs.map(new RichMapFunction<String, OrderInfo>() {
           @Override
           public OrderInfo map(String jsonStr) throws Exception {
               System.out.println("order info str >>> "+jsonStr);
               OrderInfo orderInfo = JSONObject.parseObject(jsonStr, OrderInfo.class);
               DateTime createTime = DateUtil.parse(orderInfo.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderInfo.setCreate_ts(createTime.getTime());
               return orderInfo;
          }
      });

       //对订单明细数据进行转换
       SingleOutputStreamOperator<OrderDetail> orderDetailObjDs = orderDetailDs.map(new RichMapFunction<String, OrderDetail>() {
           @Override
           public OrderDetail map(String jsonStr) throws Exception {
               System.out.println("order detail str >>> "+jsonStr);
               OrderDetail orderDetail = JSONObject.parseObject(jsonStr, OrderDetail.class);
               DateTime createTime = DateUtil.parse(orderDetail.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderDetail.setCreate_ts(createTime.getTime());
               return orderDetail;
          }
      });

       orderInfoDs.print("order info >>>");
       orderDetailDs.print("order detail >>>");

       try {
           env.execute("order wide task");
      } catch (Exception e) {
           e.printStackTrace();
      }
  }
}

4. 双流join准备

在 flink 中的流 join 大体分为两种,一种是基于时间窗口的 join(Time Windowed Join),比如 join、coGroup 等。另一种是基于状态缓存的 join(Temporal Table Join),比如 intervalJoin。这里选用 intervalJoin,因为相比较窗口 join,intervalJoin 使用更简单,而且避免了应匹配的数据处于不同窗口的问题。

intervalJoin 目前只有一个问题,就是还不支持 left join。但是我们这里是订单主表与订单从表之间的关联不需要 left join,所以 intervalJoin 是较好的选择。

官方文档:interval-join

先设置时间水位线,然后在分组

//指定事件时间字段
//订单事件时间字段
SingleOutputStreamOperator<OrderInfo> orderInfoWithTsDs = orderInfoObjDs.assignTimestampsAndWatermarks(
       WatermarkStrategy
              .<OrderInfo>forBoundedOutOfOrderness(Duration.ofSeconds(3))
              .withTimestampAssigner(new SerializableTimestampAssigner<OrderInfo>() {
                   @Override
                   public long extractTimestamp(OrderInfo orderInfo, long l) {
                       return orderInfo.getCreate_ts();
                  }
              })
);
//订单明细指定事件事件字段
SingleOutputStreamOperator<OrderDetail> orderDetailWithTsDs = orderDetailObjDs.assignTimestampsAndWatermarks(
       WatermarkStrategy.<OrderDetail>forBoundedOutOfOrderness(Duration.ofSeconds(3))
              .withTimestampAssigner(new SerializableTimestampAssigner<OrderDetail>() {
                   @Override
                   public long extractTimestamp(OrderDetail orderDetail, long l) {
                       return orderDetail.getCreate_ts();
                  }
              })
);

//分组
KeyedStream<OrderInfo, Long> orderInfoKeysDs = orderInfoWithTsDs.keyBy(OrderInfo::getId);
KeyedStream<OrderDetail, Long> orderDetailKeysDs = orderDetailWithTsDs.keyBy(OrderDetail::getId);

5. 建立订单宽表

import lombok.AllArgsConstructor;
import lombok.Data;
import org.apache.commons.lang3.ObjectUtils;

import java.math.BigDecimal;

/**
* @author zhangbaohpu
* @date 2021/11/13 11:10
* @desc 订单宽表
*/
@Data
@AllArgsConstructor
public class OrderWide {
   Long detail_id;
   Long order_id ;
   Long sku_id;
   BigDecimal order_price ;
   Long sku_num ;
   String sku_name;
   Long province_id;
   String order_status;
   Long user_id;
   BigDecimal total_amount;
   BigDecimal activity_reduce_amount;
   BigDecimal coupon_reduce_amount;
   BigDecimal original_total_amount;
   BigDecimal feight_fee;
   BigDecimal split_feight_fee;
   BigDecimal split_activity_amount;
   BigDecimal split_coupon_amount;
   BigDecimal split_total_amount;
   String expire_time;
   String create_time;
   String operate_time;
   String create_date; // 把其他字段处理得到
   String create_hour;
   String province_name;//查询维表得到
   String province_area_code;
   String province_iso_code;
   String province_3166_2_code;
   Integer user_age ;
   String user_gender;
   Long spu_id; //作为维度数据 要关联进来
   Long tm_id;
   Long category3_id;
   String spu_name;
   String tm_name;
   String category3_name;
   public OrderWide(OrderInfo orderInfo, OrderDetail orderDetail){
       mergeOrderInfo(orderInfo);
       mergeOrderDetail(orderDetail);
  }
   public void mergeOrderInfo(OrderInfo orderInfo ) {
       if (orderInfo != null) {
           this.order_id = orderInfo.id;
           this.order_status = orderInfo.order_status;
           this.create_time = orderInfo.create_time;
           this.create_date = orderInfo.create_date;
           this.activity_reduce_amount = orderInfo.activity_reduce_amount;
           this.coupon_reduce_amount = orderInfo.coupon_reduce_amount;
           this.original_total_amount = orderInfo.original_total_amount;
           this.feight_fee = orderInfo.feight_fee;
           this.total_amount = orderInfo.total_amount;
           this.province_id = orderInfo.province_id;
           this.user_id = orderInfo.user_id;
      }
  }
   public void mergeOrderDetail(OrderDetail orderDetail ) {
       if (orderDetail != null) {
           this.detail_id = orderDetail.id;
           this.sku_id = orderDetail.sku_id;
           this.sku_name = orderDetail.sku_name;
           this.order_price = orderDetail.order_price;
           this.sku_num = orderDetail.sku_num;
           this.split_activity_amount=orderDetail.split_activity_amount;
           this.split_coupon_amount=orderDetail.split_coupon_amount;
           this.split_total_amount=orderDetail.split_total_amount;
      }
  }
   public void mergeOtherOrderWide(OrderWide otherOrderWide){
       this.order_status =
               ObjectUtils.firstNonNull( this.order_status ,otherOrderWide.order_status);
       this.create_time =
               ObjectUtils.firstNonNull(this.create_time,otherOrderWide.create_time);
       this.create_date =
               ObjectUtils.firstNonNull(this.create_date,otherOrderWide.create_date);
       this.coupon_reduce_amount =
               ObjectUtils.firstNonNull(this.coupon_reduce_amount,otherOrderWide.coupon_reduce_amount);
       this.activity_reduce_amount =
               ObjectUtils.firstNonNull(this.activity_reduce_amount,otherOrderWide.activity_reduce_amount);
       this.original_total_amount =
               ObjectUtils.firstNonNull(this.original_total_amount,otherOrderWide.original_total_amount);
       this.feight_fee = ObjectUtils.firstNonNull( this.feight_fee,otherOrderWide.feight_fee);
       this.total_amount =
               ObjectUtils.firstNonNull( this.total_amount,otherOrderWide.total_amount);
       this.user_id = ObjectUtils.<Long>firstNonNull(this.user_id,otherOrderWide.user_id);
       this.sku_id = ObjectUtils.firstNonNull( this.sku_id,otherOrderWide.sku_id);
       this.sku_name = ObjectUtils.firstNonNull(this.sku_name,otherOrderWide.sku_name);
       this.order_price =
               ObjectUtils.firstNonNull(this.order_price,otherOrderWide.order_price);
       this.sku_num = ObjectUtils.firstNonNull( this.sku_num,otherOrderWide.sku_num);
       this.split_activity_amount=ObjectUtils.firstNonNull(this.split_activity_amount);
       this.split_coupon_amount=ObjectUtils.firstNonNull(this.split_coupon_amount);
       this.split_total_amount=ObjectUtils.firstNonNull(this.split_total_amount);
  } }

6. 双流join

在做好数据封装,并标记时间水位线,我们可以做订单和订单明细表的双流join操作了。

import cn.hutool.core.date.DateTime;
import cn.hutool.core.date.DateUtil;
import com.alibaba.fastjson.JSONObject;
import com.zhangbao.gmall.realtime.bean.OrderDetail;
import com.zhangbao.gmall.realtime.bean.OrderInfo;
import com.zhangbao.gmall.realtime.bean.OrderWide;
import com.zhangbao.gmall.realtime.utils.MyKafkaUtil;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.ProcessJoinFunction;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
import org.apache.flink.util.Collector;

import java.time.Duration;

/**
* @author zhangbao
* @date 2021/10/25 19:58
* @desc
* 启动服务
*     zk > kf > maxwell > hdfs > hbase > baseDbTask > OrderWideApp > mysql配置表
* 业务流程
*     模拟生成数据
*     maxwell监控mysql数据
*     kafka接收maxwell发送的数据,放入ODS层(ods_base_db_m)
*     baseDbTask消费kafka的主题数据并进行分流
*         从mysql读取配置表
*         将配置缓存到map集合中
*         检查phoenix(hbase的皮肤)是否存在表
*         对数据表进行分流发送到不同dwd层主题
*/
public class OrderWideApp {
   public static void main(String[] args) {
       //webui模式,需要添加pom依赖
       StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());
//       StreamExecutionEnvironment env1 = StreamExecutionEnvironment.createLocalEnvironment();
       //设置并行度
       env.setParallelism(4);
       //设置检查点
//       env.enableCheckpointing(5000, CheckpointingMode.EXACTLY_ONCE);
//       env.getCheckpointConfig().setCheckpointTimeout(60000);
//       env.setStateBackend(new FsStateBackend("hdfs://hadoop101:9000/gmall/flink/checkpoint/uniqueVisit"));
//       //指定哪个用户读取hdfs文件
//       System.setProperty("HADOOP_USER_NAME","zhangbao");


       //从kafka的dwd主题获取订单和订单详情
       String orderInfoTopic = "dwd_order_info";
       String orderDetailTopic = "dwd_order_detail";
       String orderWideTopic = "dwm_order_wide";
       String orderWideGroup = "order_wide_group";

       //订单数据
       FlinkKafkaConsumer<String> orderInfoSource = MyKafkaUtil.getKafkaSource(orderInfoTopic, orderWideGroup);
       DataStreamSource<String> orderInfoDs = env.addSource(orderInfoSource);

       //订单详情数据
       FlinkKafkaConsumer<String> orderDetailSource = MyKafkaUtil.getKafkaSource(orderDetailTopic, orderWideGroup);
       DataStreamSource<String> orderDetailDs = env.addSource(orderDetailSource);

       //对订单数据进行转换
       SingleOutputStreamOperator<OrderInfo> orderInfoObjDs = orderInfoDs.map(new RichMapFunction<String, OrderInfo>() {
           @Override
           public OrderInfo map(String jsonStr) throws Exception {
               System.out.println("order info str >>> "+jsonStr);
               OrderInfo orderInfo = JSONObject.parseObject(jsonStr, OrderInfo.class);
               DateTime createTime = DateUtil.parse(orderInfo.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderInfo.setCreate_ts(createTime.getTime());
               return orderInfo;
          }
      });

       //对订单明细数据进行转换
       SingleOutputStreamOperator<OrderDetail> orderDetailObjDs = orderDetailDs.map(new RichMapFunction<String, OrderDetail>() {
           @Override
           public OrderDetail map(String jsonStr) throws Exception {
               System.out.println("order detail str >>> "+jsonStr);
               OrderDetail orderDetail = JSONObject.parseObject(jsonStr, OrderDetail.class);
               DateTime createTime = DateUtil.parse(orderDetail.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderDetail.setCreate_ts(createTime.getTime());
               return orderDetail;
          }
      });

       orderInfoObjDs.print("order info >>>");
       orderDetailObjDs.print("order detail >>>");

       //指定事件时间字段
       //订单事件时间字段
       SingleOutputStreamOperator<OrderInfo> orderInfoWithTsDs = orderInfoObjDs.assignTimestampsAndWatermarks(
               WatermarkStrategy
                      .<OrderInfo>forBoundedOutOfOrderness(Duration.ofSeconds(3))
                      .withTimestampAssigner(new SerializableTimestampAssigner<OrderInfo>() {
                           @Override
                           public long extractTimestamp(OrderInfo orderInfo, long l) {
                               return orderInfo.getCreate_ts();
                          }
                      })
      );
       //订单明细指定事件事件字段
       SingleOutputStreamOperator<OrderDetail> orderDetailWithTsDs = orderDetailObjDs.assignTimestampsAndWatermarks(
               WatermarkStrategy.<OrderDetail>forBoundedOutOfOrderness(Duration.ofSeconds(3))
                      .withTimestampAssigner(new SerializableTimestampAssigner<OrderDetail>() {
                           @Override
                           public long extractTimestamp(OrderDetail orderDetail, long l) {
                               return orderDetail.getCreate_ts();
                          }
                      })
      );

       //分组
       KeyedStream<OrderInfo, Long> orderInfoKeysDs = orderInfoWithTsDs.keyBy(OrderInfo::getId);
       KeyedStream<OrderDetail, Long> orderDetailKeysDs = orderDetailWithTsDs.keyBy(OrderDetail::getOrder_id);

       /**
        * interval-join
        * https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/datastream/operators/joining/#interval-join
        */
       SingleOutputStreamOperator<OrderWide> orderWideDs = orderInfoKeysDs.intervalJoin(orderDetailKeysDs)
              .between(Time.milliseconds(-5), Time.milliseconds(5))
              .process(new ProcessJoinFunction<OrderInfo, OrderDetail, OrderWide>() {
                   @Override
                   public void processElement(OrderInfo orderInfo, OrderDetail orderDetail, ProcessJoinFunction<OrderInfo, OrderDetail, OrderWide>.Context context, Collector<OrderWide> out) throws Exception {
                       out.collect(new OrderWide(orderInfo, orderDetail));
                  }
              });
       orderWideDs.print("order wide ds >>>");

       try {
           env.execute("order wide task");
      } catch (Exception e) {
           e.printStackTrace();
      }
  }
}

到这里我们就把订单的部分宽表数据给做出来了,下一节,我们再把一些维度数据给关联进来,就形成了一个完整订单宽表。

9.Flink实时项目之订单宽表的更多相关文章

  1. 10.Flink实时项目之订单维度表关联

    1. 维度查询 在上一篇中,我们已经把订单和订单明细表join完,本文将关联订单的其他维度数据,维度关联实际上就是在流中查询存储在 hbase 中的数据表.但是即使通过主键的方式查询,hbase 速度 ...

  2. 11.Flink实时项目之支付宽表

    支付宽表 支付宽表的目的,最主要的原因是支付表没有到订单明细,支付金额没有细分到商品上, 没有办法统计商品级的支付状况. 所以本次宽表的核心就是要把支付表的信息与订单明细关联上. 解决方案有两个 一个 ...

  3. 7.Flink实时项目之独立访客开发

    1.架构说明 在上6节当中,我们已经完成了从ods层到dwd层的转换,包括日志数据和业务数据,下面我们开始做dwm层的任务. DWM 层主要服务 DWS,因为部分需求直接从 DWD 层到DWS 层中间 ...

  4. 3.Flink实时项目之流程分析及环境搭建

    1. 流程分析 前面已经将日志数据(ods_base_log)及业务数据(ods_base_db_m)发送到kafka,作为ods层,接下来要做的就是通过flink消费kafka 的ods数据,进行简 ...

  5. 5.Flink实时项目之业务数据准备

    1. 流程介绍 在上一篇文章中,我们已经把客户端的页面日志,启动日志,曝光日志分别发送到kafka对应的主题中.在本文中,我们将把业务数据也发送到对应的kafka主题中. 通过maxwell采集业务数 ...

  6. 6.Flink实时项目之业务数据分流

    在上一篇文章中,我们已经获取到了业务数据的输出流,分别是dim层维度数据的输出流,及dwd层事实数据的输出流,接下来我们要做的就是把这些输出流分别再流向对应的数据介质中,dim层流向hbase中,dw ...

  7. 4.Flink实时项目之数据拆分

    1. 摘要 我们前面采集的日志数据已经保存到 Kafka 中,作为日志数据的 ODS 层,从 kafka 的ODS 层读取的日志数据分为 3 类, 页面日志.启动日志和曝光日志.这三类数据虽然都是用户 ...

  8. 1.Flink实时项目前期准备

    1.日志生成项目 日志生成机器:hadoop101 jar包:mock-log-0.0.1-SNAPSHOT.jar gmall_mock ​ |----mock_common ​ |----mock ...

  9. 8.Flink实时项目之CEP计算访客跳出

    1.访客跳出明细介绍 首先要识别哪些是跳出行为,要把这些跳出的访客最后一个访问的页面识别出来.那么就要抓住几个特征: 该页面是用户近期访问的第一个页面,这个可以通过该页面是否有上一个页面(last_p ...

随机推荐

  1. spring filter详解

    一.Filter基本工作原理 1.Filter 程序是一个实现了特殊接口的 Java 类,与 Servlet 类似,也是由 Servlet 容器进行调用和执行的. 2.当在 web.xml 注册了一个 ...

  2. 01网络编程(基础知识+OSI七层协议+TCP与UDP)

    目录 01 网络编程 一.软件开发架构 1.1 CS架构 1.2 BS架构 二.网络理论前戏 2.1 简介 2.2 常见硬件 三.OSI七层协议(五层) 3.1 七层协议 3.2 五层协议 3.3 知 ...

  3. mysqlCRUD

    一.介绍 CRUD即增加(Create).查询(Retrieve).更新(Update).删除(Delete)四个单词的首字母缩写. In computing, CRUD is an acronym ...

  4. IDEA自带Http Client替代Postman校验接口

    对比Postman的优势 对于数据格式变动可以更为敏锐的观察到.生成的接口请求文件可以同步到代码库,支持多人使用. 使用说明 创建请求文件 使用IDEA,在项目的Scratches下创建Http Re ...

  5. ReentrantLock与synchronized比较分析

    ReentrantLock:完成了Lock接口,是一个可重入锁,并且支持线程公正竞赛和非公正竞赛两种形式,默认情况下对错公正形式.ReentrantLock算是synchronized的补充和替代计划 ...

  6. 以Docker容器的形式运行GVM-11

    OpenVAS(Open Vulnerability Assessment System)是在nessus基础上发展起来的一个开源的漏洞扫描程序,其核心部件是一套漏洞测试程序,可以检测远程系统和应用程 ...

  7. 攻防世界Web_easytornado

    题目: 解题思路: 题目就三个txt文本文件 , 由python_template_injection这篇随笔中了解到tornado也是python web应用程序模板的一种,应该也是考查模板注入. ...

  8. 攻防世界之Web_upload1

    题目: 本题考查的是文件上传漏洞. 上传一句话木马. 桌面新建一个webshell.php文本文件,写入<?php @eval($_POST['pass']);?>保存.  点击浏览,选择 ...

  9. [自动化]基于kolla-ansible部署的openstack自动化巡检生成xlsx报告

    自动化巡检介绍 此巡检项目在kolla-ansible部署的openstack环境上开发,利用ansible-playbook编排的功能,对巡检的任务进行编排和数据处理.主要巡检的对象有IaaS平台和 ...

  10. BugKu-Misc-简单取证1

    下载文件压缩包,解压得到文件夹config,根据题目得知为取证,使用工具mimikatz, github地址:https://github.com/ParrotSec/mimikatz 将文件夹con ...