1.需求分析

订单是统计分析的重要的对象,围绕订单有很多的维度统计需求,比如用户、地区、商品、品类、品牌等等。为了之后统计计算更加方便,减少大表之间的关联,所以在实时计算过程中将围绕订单的相关数据整合成为一张订单的宽表。那究竟哪些数据需要和订单整合在一起?

如上图,由于在之前的操作(BaseDbTask)我们已经把数据分拆成了事实数据和维度数据,事实数据(绿色)进入 kafka 数据流(DWD 层)中,维度数据(蓝色)进入 hbase 中长期保存。那么我们在 DWM 层中要把实时和维度数据进行整合关联在一起,形成宽表。那么这里就要处理有两种关联,事实数据和事实数据关联、事实数据和维度数据关联。

  • 事实数据和事实数据关联,其实就是流与流之间的关联。

  • 事实数据与维度数据关联,其实就是流计算中查询外部数据源。

2. 创建实体类

import java.math.BigDecimal;
/**
* @author zhangbao
* @date 2021/10/25 19:55
* @desc 订单
*/
@Data
public class OrderInfo {
   Long id;
   Long province_id;
   String order_status;
   Long user_id;
   BigDecimal total_amount;
   BigDecimal activity_reduce_amount;
   BigDecimal coupon_reduce_amount;
   BigDecimal original_total_amount;
   BigDecimal feight_fee;
   String expire_time;
   String create_time;
   String operate_time;
   String create_date; // 把其他字段处理得到
   String create_hour;
   Long create_ts;
}
import java.math.BigDecimal;
/**
* @author zhangbao
* @date 2021/10/25 19:55
* @desc 订单明细
*/
@Data
public class OrderDetail {
   Long id;
   Long order_id ;
   Long sku_id;
   BigDecimal order_price ;
   Long sku_num ;
   String sku_name;
   String create_time;
   BigDecimal split_total_amount;
   BigDecimal split_activity_amount;
   BigDecimal split_coupon_amount;
   Long create_ts;
}

3. 消费kafka事实数据

在dwm包下创建任务OrderWideApp.java,对订单及明细数据做格式转换,在这个阶段可以做一些ETL操作。

import cn.hutool.core.date.DateTime;
import cn.hutool.core.date.DateUnit;
import cn.hutool.core.date.DateUtil;
import com.alibaba.fastjson.JSONObject;
import com.zhangbao.gmall.realtime.bean.OrderDetail;
import com.zhangbao.gmall.realtime.bean.OrderInfo;
import com.zhangbao.gmall.realtime.utils.MyKafkaUtil;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.runtime.state.filesystem.FsStateBackend;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;

/**
* @author zhangbao
* @date 2021/10/25 19:58
* @desc
*/
public class OrderWideApp {
   public static void main(String[] args) {
       //webui模式,需要添加pom依赖
       StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());
//       StreamExecutionEnvironment env1 = StreamExecutionEnvironment.createLocalEnvironment();
       //设置并行度
       env.setParallelism(4);
       //设置检查点
//       env.enableCheckpointing(5000, CheckpointingMode.EXACTLY_ONCE);
//       env.getCheckpointConfig().setCheckpointTimeout(60000);
//       env.setStateBackend(new FsStateBackend("hdfs://hadoop101:9000/gmall/flink/checkpoint/uniqueVisit"));
//       //指定哪个用户读取hdfs文件
//       System.setProperty("HADOOP_USER_NAME","zhangbao");

       //从kafka的dwd主题获取订单和订单详情
       String orderInfoTopic = "dwd_order_info";
       String orderDetailTopic = "dwd_order_detail";
       String orderWideTopic = "dwm_order_wide";
       String orderWideGroup = "order_wide_group";

       //订单数据
       FlinkKafkaConsumer<String> orderInfoSource = MyKafkaUtil.getKafkaSource(orderInfoTopic, orderWideGroup);
       DataStreamSource<String> orderInfoDs = env.addSource(orderInfoSource);

       //订单详情数据
       FlinkKafkaConsumer<String> orderDetailSource = MyKafkaUtil.getKafkaSource(orderDetailTopic, orderWideGroup);
       DataStreamSource<String> orderDetailDs = env.addSource(orderDetailSource);

       //对订单数据进行转换
       SingleOutputStreamOperator<OrderInfo> orderInfoObjDs = orderInfoDs.map(new RichMapFunction<String, OrderInfo>() {
           @Override
           public OrderInfo map(String jsonStr) throws Exception {
               System.out.println("order info str >>> "+jsonStr);
               OrderInfo orderInfo = JSONObject.parseObject(jsonStr, OrderInfo.class);
               DateTime createTime = DateUtil.parse(orderInfo.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderInfo.setCreate_ts(createTime.getTime());
               return orderInfo;
          }
      });

       //对订单明细数据进行转换
       SingleOutputStreamOperator<OrderDetail> orderDetailObjDs = orderDetailDs.map(new RichMapFunction<String, OrderDetail>() {
           @Override
           public OrderDetail map(String jsonStr) throws Exception {
               System.out.println("order detail str >>> "+jsonStr);
               OrderDetail orderDetail = JSONObject.parseObject(jsonStr, OrderDetail.class);
               DateTime createTime = DateUtil.parse(orderDetail.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderDetail.setCreate_ts(createTime.getTime());
               return orderDetail;
          }
      });

       orderInfoDs.print("order info >>>");
       orderDetailDs.print("order detail >>>");

       try {
           env.execute("order wide task");
      } catch (Exception e) {
           e.printStackTrace();
      }
  }
}

4. 双流join准备

在 flink 中的流 join 大体分为两种,一种是基于时间窗口的 join(Time Windowed Join),比如 join、coGroup 等。另一种是基于状态缓存的 join(Temporal Table Join),比如 intervalJoin。这里选用 intervalJoin,因为相比较窗口 join,intervalJoin 使用更简单,而且避免了应匹配的数据处于不同窗口的问题。

intervalJoin 目前只有一个问题,就是还不支持 left join。但是我们这里是订单主表与订单从表之间的关联不需要 left join,所以 intervalJoin 是较好的选择。

官方文档:interval-join

先设置时间水位线,然后在分组

//指定事件时间字段
//订单事件时间字段
SingleOutputStreamOperator<OrderInfo> orderInfoWithTsDs = orderInfoObjDs.assignTimestampsAndWatermarks(
       WatermarkStrategy
              .<OrderInfo>forBoundedOutOfOrderness(Duration.ofSeconds(3))
              .withTimestampAssigner(new SerializableTimestampAssigner<OrderInfo>() {
                   @Override
                   public long extractTimestamp(OrderInfo orderInfo, long l) {
                       return orderInfo.getCreate_ts();
                  }
              })
);
//订单明细指定事件事件字段
SingleOutputStreamOperator<OrderDetail> orderDetailWithTsDs = orderDetailObjDs.assignTimestampsAndWatermarks(
       WatermarkStrategy.<OrderDetail>forBoundedOutOfOrderness(Duration.ofSeconds(3))
              .withTimestampAssigner(new SerializableTimestampAssigner<OrderDetail>() {
                   @Override
                   public long extractTimestamp(OrderDetail orderDetail, long l) {
                       return orderDetail.getCreate_ts();
                  }
              })
);

//分组
KeyedStream<OrderInfo, Long> orderInfoKeysDs = orderInfoWithTsDs.keyBy(OrderInfo::getId);
KeyedStream<OrderDetail, Long> orderDetailKeysDs = orderDetailWithTsDs.keyBy(OrderDetail::getId);

5. 建立订单宽表

import lombok.AllArgsConstructor;
import lombok.Data;
import org.apache.commons.lang3.ObjectUtils;

import java.math.BigDecimal;

/**
* @author zhangbaohpu
* @date 2021/11/13 11:10
* @desc 订单宽表
*/
@Data
@AllArgsConstructor
public class OrderWide {
   Long detail_id;
   Long order_id ;
   Long sku_id;
   BigDecimal order_price ;
   Long sku_num ;
   String sku_name;
   Long province_id;
   String order_status;
   Long user_id;
   BigDecimal total_amount;
   BigDecimal activity_reduce_amount;
   BigDecimal coupon_reduce_amount;
   BigDecimal original_total_amount;
   BigDecimal feight_fee;
   BigDecimal split_feight_fee;
   BigDecimal split_activity_amount;
   BigDecimal split_coupon_amount;
   BigDecimal split_total_amount;
   String expire_time;
   String create_time;
   String operate_time;
   String create_date; // 把其他字段处理得到
   String create_hour;
   String province_name;//查询维表得到
   String province_area_code;
   String province_iso_code;
   String province_3166_2_code;
   Integer user_age ;
   String user_gender;
   Long spu_id; //作为维度数据 要关联进来
   Long tm_id;
   Long category3_id;
   String spu_name;
   String tm_name;
   String category3_name;
   public OrderWide(OrderInfo orderInfo, OrderDetail orderDetail){
       mergeOrderInfo(orderInfo);
       mergeOrderDetail(orderDetail);
  }
   public void mergeOrderInfo(OrderInfo orderInfo ) {
       if (orderInfo != null) {
           this.order_id = orderInfo.id;
           this.order_status = orderInfo.order_status;
           this.create_time = orderInfo.create_time;
           this.create_date = orderInfo.create_date;
           this.activity_reduce_amount = orderInfo.activity_reduce_amount;
           this.coupon_reduce_amount = orderInfo.coupon_reduce_amount;
           this.original_total_amount = orderInfo.original_total_amount;
           this.feight_fee = orderInfo.feight_fee;
           this.total_amount = orderInfo.total_amount;
           this.province_id = orderInfo.province_id;
           this.user_id = orderInfo.user_id;
      }
  }
   public void mergeOrderDetail(OrderDetail orderDetail ) {
       if (orderDetail != null) {
           this.detail_id = orderDetail.id;
           this.sku_id = orderDetail.sku_id;
           this.sku_name = orderDetail.sku_name;
           this.order_price = orderDetail.order_price;
           this.sku_num = orderDetail.sku_num;
           this.split_activity_amount=orderDetail.split_activity_amount;
           this.split_coupon_amount=orderDetail.split_coupon_amount;
           this.split_total_amount=orderDetail.split_total_amount;
      }
  }
   public void mergeOtherOrderWide(OrderWide otherOrderWide){
       this.order_status =
               ObjectUtils.firstNonNull( this.order_status ,otherOrderWide.order_status);
       this.create_time =
               ObjectUtils.firstNonNull(this.create_time,otherOrderWide.create_time);
       this.create_date =
               ObjectUtils.firstNonNull(this.create_date,otherOrderWide.create_date);
       this.coupon_reduce_amount =
               ObjectUtils.firstNonNull(this.coupon_reduce_amount,otherOrderWide.coupon_reduce_amount);
       this.activity_reduce_amount =
               ObjectUtils.firstNonNull(this.activity_reduce_amount,otherOrderWide.activity_reduce_amount);
       this.original_total_amount =
               ObjectUtils.firstNonNull(this.original_total_amount,otherOrderWide.original_total_amount);
       this.feight_fee = ObjectUtils.firstNonNull( this.feight_fee,otherOrderWide.feight_fee);
       this.total_amount =
               ObjectUtils.firstNonNull( this.total_amount,otherOrderWide.total_amount);
       this.user_id = ObjectUtils.<Long>firstNonNull(this.user_id,otherOrderWide.user_id);
       this.sku_id = ObjectUtils.firstNonNull( this.sku_id,otherOrderWide.sku_id);
       this.sku_name = ObjectUtils.firstNonNull(this.sku_name,otherOrderWide.sku_name);
       this.order_price =
               ObjectUtils.firstNonNull(this.order_price,otherOrderWide.order_price);
       this.sku_num = ObjectUtils.firstNonNull( this.sku_num,otherOrderWide.sku_num);
       this.split_activity_amount=ObjectUtils.firstNonNull(this.split_activity_amount);
       this.split_coupon_amount=ObjectUtils.firstNonNull(this.split_coupon_amount);
       this.split_total_amount=ObjectUtils.firstNonNull(this.split_total_amount);
  } }

6. 双流join

在做好数据封装,并标记时间水位线,我们可以做订单和订单明细表的双流join操作了。

import cn.hutool.core.date.DateTime;
import cn.hutool.core.date.DateUtil;
import com.alibaba.fastjson.JSONObject;
import com.zhangbao.gmall.realtime.bean.OrderDetail;
import com.zhangbao.gmall.realtime.bean.OrderInfo;
import com.zhangbao.gmall.realtime.bean.OrderWide;
import com.zhangbao.gmall.realtime.utils.MyKafkaUtil;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.RichMapFunction;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.KeyedStream;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.co.ProcessJoinFunction;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
import org.apache.flink.util.Collector;

import java.time.Duration;

/**
* @author zhangbao
* @date 2021/10/25 19:58
* @desc
* 启动服务
*     zk > kf > maxwell > hdfs > hbase > baseDbTask > OrderWideApp > mysql配置表
* 业务流程
*     模拟生成数据
*     maxwell监控mysql数据
*     kafka接收maxwell发送的数据,放入ODS层(ods_base_db_m)
*     baseDbTask消费kafka的主题数据并进行分流
*         从mysql读取配置表
*         将配置缓存到map集合中
*         检查phoenix(hbase的皮肤)是否存在表
*         对数据表进行分流发送到不同dwd层主题
*/
public class OrderWideApp {
   public static void main(String[] args) {
       //webui模式,需要添加pom依赖
       StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());
//       StreamExecutionEnvironment env1 = StreamExecutionEnvironment.createLocalEnvironment();
       //设置并行度
       env.setParallelism(4);
       //设置检查点
//       env.enableCheckpointing(5000, CheckpointingMode.EXACTLY_ONCE);
//       env.getCheckpointConfig().setCheckpointTimeout(60000);
//       env.setStateBackend(new FsStateBackend("hdfs://hadoop101:9000/gmall/flink/checkpoint/uniqueVisit"));
//       //指定哪个用户读取hdfs文件
//       System.setProperty("HADOOP_USER_NAME","zhangbao");


       //从kafka的dwd主题获取订单和订单详情
       String orderInfoTopic = "dwd_order_info";
       String orderDetailTopic = "dwd_order_detail";
       String orderWideTopic = "dwm_order_wide";
       String orderWideGroup = "order_wide_group";

       //订单数据
       FlinkKafkaConsumer<String> orderInfoSource = MyKafkaUtil.getKafkaSource(orderInfoTopic, orderWideGroup);
       DataStreamSource<String> orderInfoDs = env.addSource(orderInfoSource);

       //订单详情数据
       FlinkKafkaConsumer<String> orderDetailSource = MyKafkaUtil.getKafkaSource(orderDetailTopic, orderWideGroup);
       DataStreamSource<String> orderDetailDs = env.addSource(orderDetailSource);

       //对订单数据进行转换
       SingleOutputStreamOperator<OrderInfo> orderInfoObjDs = orderInfoDs.map(new RichMapFunction<String, OrderInfo>() {
           @Override
           public OrderInfo map(String jsonStr) throws Exception {
               System.out.println("order info str >>> "+jsonStr);
               OrderInfo orderInfo = JSONObject.parseObject(jsonStr, OrderInfo.class);
               DateTime createTime = DateUtil.parse(orderInfo.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderInfo.setCreate_ts(createTime.getTime());
               return orderInfo;
          }
      });

       //对订单明细数据进行转换
       SingleOutputStreamOperator<OrderDetail> orderDetailObjDs = orderDetailDs.map(new RichMapFunction<String, OrderDetail>() {
           @Override
           public OrderDetail map(String jsonStr) throws Exception {
               System.out.println("order detail str >>> "+jsonStr);
               OrderDetail orderDetail = JSONObject.parseObject(jsonStr, OrderDetail.class);
               DateTime createTime = DateUtil.parse(orderDetail.getCreate_time(), "yyyy-MM-dd HH:mm:ss");
               orderDetail.setCreate_ts(createTime.getTime());
               return orderDetail;
          }
      });

       orderInfoObjDs.print("order info >>>");
       orderDetailObjDs.print("order detail >>>");

       //指定事件时间字段
       //订单事件时间字段
       SingleOutputStreamOperator<OrderInfo> orderInfoWithTsDs = orderInfoObjDs.assignTimestampsAndWatermarks(
               WatermarkStrategy
                      .<OrderInfo>forBoundedOutOfOrderness(Duration.ofSeconds(3))
                      .withTimestampAssigner(new SerializableTimestampAssigner<OrderInfo>() {
                           @Override
                           public long extractTimestamp(OrderInfo orderInfo, long l) {
                               return orderInfo.getCreate_ts();
                          }
                      })
      );
       //订单明细指定事件事件字段
       SingleOutputStreamOperator<OrderDetail> orderDetailWithTsDs = orderDetailObjDs.assignTimestampsAndWatermarks(
               WatermarkStrategy.<OrderDetail>forBoundedOutOfOrderness(Duration.ofSeconds(3))
                      .withTimestampAssigner(new SerializableTimestampAssigner<OrderDetail>() {
                           @Override
                           public long extractTimestamp(OrderDetail orderDetail, long l) {
                               return orderDetail.getCreate_ts();
                          }
                      })
      );

       //分组
       KeyedStream<OrderInfo, Long> orderInfoKeysDs = orderInfoWithTsDs.keyBy(OrderInfo::getId);
       KeyedStream<OrderDetail, Long> orderDetailKeysDs = orderDetailWithTsDs.keyBy(OrderDetail::getOrder_id);

       /**
        * interval-join
        * https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/dev/datastream/operators/joining/#interval-join
        */
       SingleOutputStreamOperator<OrderWide> orderWideDs = orderInfoKeysDs.intervalJoin(orderDetailKeysDs)
              .between(Time.milliseconds(-5), Time.milliseconds(5))
              .process(new ProcessJoinFunction<OrderInfo, OrderDetail, OrderWide>() {
                   @Override
                   public void processElement(OrderInfo orderInfo, OrderDetail orderDetail, ProcessJoinFunction<OrderInfo, OrderDetail, OrderWide>.Context context, Collector<OrderWide> out) throws Exception {
                       out.collect(new OrderWide(orderInfo, orderDetail));
                  }
              });
       orderWideDs.print("order wide ds >>>");

       try {
           env.execute("order wide task");
      } catch (Exception e) {
           e.printStackTrace();
      }
  }
}

到这里我们就把订单的部分宽表数据给做出来了,下一节,我们再把一些维度数据给关联进来,就形成了一个完整订单宽表。

9.Flink实时项目之订单宽表的更多相关文章

  1. 10.Flink实时项目之订单维度表关联

    1. 维度查询 在上一篇中,我们已经把订单和订单明细表join完,本文将关联订单的其他维度数据,维度关联实际上就是在流中查询存储在 hbase 中的数据表.但是即使通过主键的方式查询,hbase 速度 ...

  2. 11.Flink实时项目之支付宽表

    支付宽表 支付宽表的目的,最主要的原因是支付表没有到订单明细,支付金额没有细分到商品上, 没有办法统计商品级的支付状况. 所以本次宽表的核心就是要把支付表的信息与订单明细关联上. 解决方案有两个 一个 ...

  3. 7.Flink实时项目之独立访客开发

    1.架构说明 在上6节当中,我们已经完成了从ods层到dwd层的转换,包括日志数据和业务数据,下面我们开始做dwm层的任务. DWM 层主要服务 DWS,因为部分需求直接从 DWD 层到DWS 层中间 ...

  4. 3.Flink实时项目之流程分析及环境搭建

    1. 流程分析 前面已经将日志数据(ods_base_log)及业务数据(ods_base_db_m)发送到kafka,作为ods层,接下来要做的就是通过flink消费kafka 的ods数据,进行简 ...

  5. 5.Flink实时项目之业务数据准备

    1. 流程介绍 在上一篇文章中,我们已经把客户端的页面日志,启动日志,曝光日志分别发送到kafka对应的主题中.在本文中,我们将把业务数据也发送到对应的kafka主题中. 通过maxwell采集业务数 ...

  6. 6.Flink实时项目之业务数据分流

    在上一篇文章中,我们已经获取到了业务数据的输出流,分别是dim层维度数据的输出流,及dwd层事实数据的输出流,接下来我们要做的就是把这些输出流分别再流向对应的数据介质中,dim层流向hbase中,dw ...

  7. 4.Flink实时项目之数据拆分

    1. 摘要 我们前面采集的日志数据已经保存到 Kafka 中,作为日志数据的 ODS 层,从 kafka 的ODS 层读取的日志数据分为 3 类, 页面日志.启动日志和曝光日志.这三类数据虽然都是用户 ...

  8. 1.Flink实时项目前期准备

    1.日志生成项目 日志生成机器:hadoop101 jar包:mock-log-0.0.1-SNAPSHOT.jar gmall_mock ​ |----mock_common ​ |----mock ...

  9. 8.Flink实时项目之CEP计算访客跳出

    1.访客跳出明细介绍 首先要识别哪些是跳出行为,要把这些跳出的访客最后一个访问的页面识别出来.那么就要抓住几个特征: 该页面是用户近期访问的第一个页面,这个可以通过该页面是否有上一个页面(last_p ...

随机推荐

  1. linux .h文件

    转载请注明来源:https://www.cnblogs.com/hookjc/ c++ #include <sys/types.h>   #include <unistd.h> ...

  2. (全局npmrc)nrm、npmrc、package-lock.json 的优先级

    npmrc 测试 nrm.npmrc 的优先级 实验 1. 没有设置 nrm. 默认设置 registry 为 https://registry.npmjs.org/ 下载的所有包都是通过以上域名获取 ...

  3. Nodejs ORM框架Sequelize(模型,关联表,事务,循环,及常见问题)

    1.建立连接 const Sequelize = require('sequelize'); const sequelize = new Sequelize('database', 'username ...

  4. vue 中 使用 element-ui 发送请求前 校验全部表单,报警告: [Element Warn][Form]model is required for validate to work!

    WEB先生 2020-07-14 20:01:45  754  收藏 分类专栏: vue 文章标签: vue js 版权 报这种错可能有以下两种情况 1.属性绑定错误,确保绑定的是  :model  ...

  5. Block基本概念

    1.什么是Block Block是iOS中一种比较特殊的数据类型 Block是苹果官方特别推荐使用的数据类型, 应用场景比较广泛 动画 多线程 集合遍历 网络请求回调 Block的作用 用来保存某一段 ...

  6. Flask初探之WSGI

    Flask是一个使用 Python 编写的轻量级 Web 应用框架.较其他同类型框架更为灵活.轻便.安全且容易上手.它可以很好地结合MVC模式进行开发,小型团队在短时间内就可以完成功能丰富的中小型网站 ...

  7. Linux用户配置文件、口令配置文件、组配置文件

    1.用户配置文件:保存用户信息 /etc/passwd 2.口令配置文件 /etc/shadow 每一行解释:登录名:加密口令:最后一次修改时间:最小时间间隔:最大时间间隔:警告时间:不活动时间:失效 ...

  8. 私有化轻量级持续集成部署方案--03-部署web服务(上)

    提示:本系列笔记全部存在于 Github, 可以直接在 Github 查看全部笔记 这一篇主要讲述部署一个 Web 项目,项目是我曾经搞的一个 VUE 模板项目:https://github.com/ ...

  9. 基于C6678+XC7V690T的6U VPX信号处理卡

    一.概述 本板卡基于标准6U VPX 架构,为通用高性能信号处理平台,系我公司自主研发.板卡采用一片TI DSP TMS320C6678和一片Xilinx公司Virtex 7系列的FPGA XC7V6 ...

  10. 有手就行10——Jenkins+SonarQube代码审查

    有手就行10--Jenkins+SonarQube代码审查 Jenkins+SonarQube代码审查(1) - 安装SonarQube Jenkins+SonarQube代码审查(2) - 实现代码 ...