引言

首先先明白在关系型数据库中Join的用法。

Join在MapReduce中的用法也是用于两个文件之间的连接。

使用MR程序解决两张表的join问题,有两种解决方案 à MR程序的join应用

1.  reduce端join

在map端将数据封装成Java对象 à 两张表的复合Java对象

在reduce端根据对象值的不同进行join操作

2.  map端join

通过缓冲流将小文件存储起来,在map阶段根据对象值的不同进行join操作

关系型数据库MySQL中Join的用法

(MySQL中JOIN的用法均整理于https://www.cnblogs.com/fudashi/p/7491039.html

在关系型数据库中,Join主要用于两张表的连接,就如同英语单词“join”一样,可以分为内连接、外连接、左连接、右连接、自然连接。

笛卡尔积:CROSS JOIN

笛卡尔积是将A表中的数据和B表中的数据组合在一起,假设A表中有n条记录,B表中有m条记录,经过笛卡尔积组合后就会产生n * m条记录。

内连接:INNER JOIN

内连接INNER JOIN是最常用的连接操作(即求两个表的交集),从笛卡尔积的角度来说就是从笛卡尔积中挑出ON子句成立的记录。有INNER JOIN,WHERE(等值连接),STRAIGHT_JOIN,JOIN(省略INNER)四种写法。

左连接:LEFT JOIN

左连接就是求两个表的交集以及左表的其余数据。从笛卡尔积的角度讲,就是先从笛卡尔积中跳出ON字句条件成立的记录,然后加上左表中剩余的记录。

右连接:RIGHT JOIN

与左连接相同,就是求两个表的交集以及右表的其余数据。

外连接:OUTER JOIN

外连接就是求两个集合的并集。从笛卡尔积的角度讲就是从笛卡尔积中挑出ON字句条件成立的记录,然后加上左表中剩余的记录,再加上右表中剩余的记录。MySQL不支持OUTER JOIN,但是可以对左连接和右连接的结果做UNION操作来实现。

Reduce Join

Reduce Join介绍

案例

需求:

订单数据表t_order:

id

pid

amount

1001

01

1

1002

02

2

1003

03

3

商品信息表t_product

pid

pname

01

小米

02

华为

03

格力

要求将商品信息表中数据根据商品pid合并到订单数据表中。

最终数据形式:

id

pname

amount

1001

小米

1

1004

小米

4

1002

华为

2

1005

华为

5

1003

格力

3

1006

格力

6

如果想要实现这一功能,使用MySQL可以利用Select id, b.pname, a.amount from t_order as a left join t_product as b on a.pid=b.pid 轻松实现。但是如果数据量庞大的话,利用MySQL来实现将会耗费非常久的时间,无法即时完成需求。而使用MapReduce可以解决这一问题。

实现思路:reduce端表合并(数据倾斜)

通过将关联条件作为map输出的key,将两表满足join条件的数据并携带数据所来源的文件信息,发往同一个reduce task,在reduce中进行数据的串联。

步骤

第一步:JavaBean对象的编写

先声明一个JavaBean对象---OrderBean,该JavaBean对象是一个复合的JavaBean,其中涵盖了两张表涉及到的所有信息。order表会用到这个bean,product也会用到一个bean。所以为了区分两个表,应该设置一个变量flag,用于定义该表是order表还是product表。同时,为了将这个bean作为一个序列化信息进行中间值传递与输出,还需要将这个bean继承Writable类实现自定义序列化,并且实现其中的序列化和反序列化方法。

第二步:Mapper类的编写

通过Mapper类实现文件切片信息的读取,并且根据文件名不同,封装不同的OrderBean对象。根据之前所学的经验,在Mapper阶段需要将切片数据中获取到的信息传递到JavaBean对象中,然后通过context,write()方法传递给Reducer阶段。然后在Mapper阶段需要考虑一个问题:怎么获取到的切片信息是哪个文件的?怎么把切片信息和所属文件对应起来?只要解决了这两个问题,向Reduce阶段传输数据就迎刃而解了。

首先需要明白MapReduce程序默认的切片机制是TextInputFormat,而在案例需求中可以发现这里不需要再自定义切片机制。所以根据TextInputFormat的切片机制:以文件对数据进行切割,也就是说每个文件最少有一个切片,可以轻松的看出来每一个切片数据都对应着一个固定的文件,不会出现两个文件的部分数据出现在一个切片的现象。所以可以根据切片来获取到文件的路径,之后再将路径和该切片的信息对应起来即可了。

有了上述思想准备,再补充一个方法:setup()方法,该方法可以理解为一个初始化方法,其作用类似于Junit单元测试的@Before,用在Mapper阶段表示在每执行一次map()方法之前都必须执行一次setup()方法。所以可以通过setup()方法,在setup()方法中实现查询切片对应文件路径的操作,以便于map在每进行一次切片时都能标记出他们所处的文件是哪个文件。

知道了切片信息处于哪一个文件之后,还需要考虑的问题就是该如何将切片信息和所属文件的数据信息对应起来?每一行切片数据经过split()方法将行数据进行切割后都会生成一个数组文件,这个数组数组文件可以有三项,那么它就是order表中的数据,也可能有两项,那么他就是product表中的数据,所以该怎么确定数组中有三项还是有两项呢?可以根据setup中定义的操作去得到该切片信息的文件名,然后根据文件名传出对应的值就可以了。此时要回忆起JavaBean对象中定义的flag。可以根据flag值的不同,区分出两个文件数据的不同。

总而言之,map阶段可以分为以下几步:

1、 MR程序读进来的是两个文件:order.txt、product.txt。通过InputFormat将数据读入后,先按照不同的文件执行不同的数据封装

2、 读取文件切片信息,根据文件名不同,封装不同的OrderBean对象(主要的含义还是在Mapper阶段对数据打上你是那个表的数据的标签)

3、 数据封装完成后,如果做join逻辑,那么需要将两张表的连接字段作为key,对象当做value,发送给Reducer

Map阶段处理完成的数据格式是:

key

value

1

OrderBean(1001 1 1 order)

1

OrderBean(1 小米 product)

1

OrderBean(1002 1 3 order)

也就是将pid(产品id)作为key值,两张表对应key值的其他信息作为value值传给Reduce阶段。

第三步:Reducer类的编写

          通过Map阶段,可以得到如上的key-value键值对,通过对表的分析可以得出两表之间的关系为:一个产品可以对应多个订单,而一个订单只能对应一个产品。而Reduce阶段的任务就是将Map阶段得到的数据合起来,将product表中的pname(产品名)和order表中的oid(订单编号)、count(订单数量)作为结果值输出到结果文件中。

此时可以以pid为key,读取到pid一样的OrderBean的集合数据。毫无疑问的是 pid一样的OrderBean集合中,只有一条产品信息的OrderBean,但是会有很多个订单的OrderBean。此时可以设置一个OrderBean对象用于存储Map阶段得到的product表中的数据,设置一个OrderBean对象的集合来存储map阶段得到的order表中的数据,这个可以通过在Map阶段中定义的flag值来区分什么时候该存储什么值。最后通过遍历将订单中的产品id修改为产品信息中的名字,输出到结果文件中,即可以完成该案例需求。

第四步:Driver类的编写

                  Driver类还是按照常规编写,需要注意的是此处传入的文件是两个文件。

源代码

a)  OrderBean.java

  1. @Data
  2. public class OrderBean implements Writable {
  3. private String orderId = "";
  4. private String pid = "";
  5. private int amount;
  6. private String pname = "";
  7. /**
  8. * 用来区分是order表的封装对象还是product表的封装对象
  9. */
  10. private String flag = "";
  11.  
  12. @Override
  13. public void write(DataOutput dataOutput) throws IOException {
  14. dataOutput.writeUTF(orderId);
  15. dataOutput.writeUTF(pid);
  16. dataOutput.writeInt(amount);
  17. dataOutput.writeUTF(pname);
  18. dataOutput.writeUTF(flag);
  19. }
  20.  
  21. @Override
  22. public void readFields(DataInput dataInput) throws IOException {
  23. this.orderId = dataInput.readUTF();
  24. this.pid = dataInput.readUTF();
  25. this.amount = dataInput.readInt();
  26. this.pname = dataInput.readUTF();
  27. this.flag = dataInput.readUTF();
  28. }
  29.  
  30. @Override
  31. public String toString() {
  32. return orderId + " " + pname + " " + amount;
  33. }
  34. }

b)   OrderMapper.java

  1. public class OrderMapper extends Mapper<LongWritable, Text, Text, OrderBean> {
  2. /**
  3. * 当前切片所在文件名字
  4. */
  5. String fileName;
  6. @Override
  7. protected void setup(Context context) throws IOException, InterruptedException {
  8. // 获得切片
  9. FileSplit fileSplit = (FileSplit) context.getInputSplit();
  10. // 获取切片数据所在文件路径
  11. Path path = fileSplit.getPath();
  12. // 获取文件名
  13. fileName = path.getName();
  14. }
  15.  
  16. @Override
  17. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  18. String line = value.toString();
  19. String[] array = line.split("\t");
  20. OrderBean ob = new OrderBean();
  21. String file = "order";
  22. if (fileName.contains(file)) {
  23. // 如果是订单表,只需要向OrderBean对象中封装:orderId、pid、amount、flag
  24. ob.setOrderId(array[0]);
  25. ob.setPid(array[1]);
  26. ob.setAmount(Integer.parseInt(array[2]));
  27. ob.setFlag("order");
  28. } else {
  29. // 如果是产品表,只需要向OrderBean对象中封装:pid、flag
  30. ob.setPid(array[0]);
  31. ob.setPname(array[1]);
  32. ob.setFlag("product");
  33. }
  34. context.write(new Text(ob.getPid()), ob);
  35. }
  36. }

c)  OrderReduce.java

  1. public class OrderReducer extends Reducer<Text, OrderBean, NullWritable, OrderBean> {
  2. /**
  3. * @param key 产品id
  4. * @param values 产品id相同的订单信息和产品信息
  5. * @param context
  6. * @throws IOException
  7. * @throws InterruptedException
  8. */
  9. @Override
  10. protected void reduce(Text key, Iterable<OrderBean> values, Context context) throws IOException, InterruptedException {
  11. // 订单有多个
  12. List<OrderBean> orders = new ArrayList<>();
  13. // 产品信息只有一个
  14. OrderBean product = new OrderBean();
  15. /**
  16. * 在使用增强的for循环时,前面的变量永远都是同一个对象,只不过指向的地址不一样了。
  17. * 如果直接把value的值赋给其他变量,那么value的地址值变化,那么赋值给的变量也就发生变化了
  18. */
  19. for (OrderBean value: values) {
  20. // 如果是订单数据,将订单数据加到集合中
  21. if ("order".equals(value.getFlag())) {
  22. OrderBean orderBean = new OrderBean();
  23. // 将value中的数据copy到orderBean中。增强的for循环中每一次获取的对象都复制给同一个值,如果加到集合中只能加上一个,所以需要通过这种方式将两个对象区分开
  24. orderBean.setOrderId(value.getOrderId());
  25. orderBean.setPid(value.getPid());
  26. orderBean.setAmount(value.getAmount());
  27. orderBean.setFlag(value.getFlag());
  28. orders.add(orderBean);
  29. } else {
  30. // 如果是产品信息,那么将产品信息数据赋值给product对象
  31. product.setPid(value.getPid());
  32. product.setPname(value.getPname());
  33. product.setFlag(value.getFlag());
  34. }
  35. }
  36.  
  37. // 将订单中的产品名字修改为产品信息中的名字
  38. for (OrderBean order: orders) {
  39. order.setPname(product.getPname());
  40. context.write(NullWritable.get(), order);
  41. }
  42. }
  43. }

d)  OrderDriver.java

  1. public class OrderDriver {
  2. public static void main(String[] args) throws Exception {
  3. Configuration conf = new Configuration();
  4. conf.set("fs.defaultFS", "hdfs://192.168.218.55:9000");
  5. Job job = Job.getInstance(conf);
  6.  
  7. job.setJarByClass(OrderDriver.class);
  8. job.setMapperClass(OrderMapper.class);
  9. job.setMapOutputKeyClass(Text.class);
  10. job.setMapOutputValueClass(OrderBean.class);
  11.  
  12. job.setReducerClass(OrderReducer.class);
  13. job.setOutputKeyClass(NullWritable.class);
  14. job.setOutputValueClass(OrderBean.class);
  15.  
  16. FileInputFormat.setInputPaths(job, new Path("/school/join/*"));
  17. FileSystem fs = FileSystem.get(new URI("hdfs://192.168.218.55:9000"), conf, "root");
  18. Path output = new Path("/school/join/test_reduce");
  19. if (fs.exists(output)) {
  20. fs.delete(output, true);
  21. }
  22. FileOutputFormat.setOutputPath(job, output);
  23.  
  24. boolean b = job.waitForCompletion(true);
  25. System.exit(b ? 0 : 1);
  26. }
  27. }

运行截图

Reduce Join缺点

这种方式中,介于产品表中有可能有几百M数据,但是订单表有可能有几T数据,合并的操作是在reduce阶段完成,reduce端的处理压力太大,map节点的处理逻辑比较简单,运算负载很低,容易导致资源利用率不彻底,且在reduce阶段极易产生数据倾斜。

解决方案:Map Join

Map Join

使用场景

Map Join适用于一张表十分小、一张表很大的场景。

优点

思考:在Reduce端处理过多的表,非常容易产生数据倾斜。怎么办?

在Map端缓存多张表,提前处理业务逻辑,这样增加Map端业务,减少Reduce端数据的压力,尽可能的减少数据倾斜。

具体办法:采用DistributedCache

(1)在Mapper的setup阶段,将文件读取到缓存集合中。

(2)在驱动函数中加载缓存。

// 缓存普通文件到Task运行节点。

job.addCacheFile(new URI("file://e:/cache/pd.txt"));

Map阶段的join主要用到了一个技术:MR缓存小文件的技术----在Mapper的setup中去处理缓存的小文件即可

案例一:订单信息表

需求

同Reduce Join案例

思路

可以将小表分发到所有的map节点,这样,map节点就可以在本地对自己所读到的大表数据进行合并并输出最终结果,可以大大提高合并操作的并发度,加快处理速度。

这里要求将所有数据都放到Map端处理,处理逻辑为:

1. 在setup()阶段把缓存的小数据读取到内存的集合中,缓存备用

2. 在map()阶段读取大文件(大表 order.txt),根据我们缓存的小表数据进行join操作即可

源代码

1) OrderDriver.java

  1. public class OrderDriver {
  2. public static void main(String[] args) throws Exception {
  3. Configuration conf = new Configuration();
  4. conf.set("fs.defaultFS", "hdfs://192.168.218.55:9000");
  5. Job job = Job.getInstance(conf);
  6.  
  7. job.setJarByClass(OrderDriver.class);
  8. job.setMapperClass(OrderMapper.class);
  9. job.setOutputKeyClass(NullWritable.class);
  10. job.setOutputValueClass(Text.class);
  11.  
  12. job.setNumReduceTasks(0);
  13.  
  14. // 需要把小文件提前缓存下来-----需要在map阶段的setup方法中读取缓存进行数据处理
  15. job.addCacheFile(new URI("/school/join/product.txt"));
  16.  
  17. // 输入文件只需要指定大文件,即订单文件的输入路径即可
  18. FileInputFormat.setInputPaths(job, new Path("/school/join/order.txt"));
  19. FileSystem fs = FileSystem.get(new URI("hdfs://192.168.218.55:9000"), conf, "root");
  20. Path output = new Path("/school/join/test_map");
  21. if (fs.exists(output)) {
  22. fs.delete(output, true);
  23. }
  24. FileOutputFormat.setOutputPath(job, output);
  25.  
  26. boolean b = job.waitForCompletion(true);
  27. System.exit(b ? 0 : 1);
  28. }
  29. }

2) OrderMapper.java

  1. public class OrderMapper extends Mapper<LongWritable, Text, NullWritable, Text> {
  2. Map<String, String> products = new HashMap<>();
  3. /**
  4. * 缓存的小文件数据读取、存储集合备用。
  5. * 小文件是产品表,一个字段是pid,一个字段是pname
  6. * @param context
  7. * @throws IOException
  8. * @throws InterruptedException
  9. */
  10. @Override
  11. protected void setup(Context context) throws IOException, InterruptedException {
  12. // 获取缓存的小文件
  13. URI[] cacheFiles = context.getCacheFiles();
  14. URI cacheFile = cacheFiles[0];
  15. // 获取缓存文件的路径
  16. String path = cacheFile.getPath();
  17. try {
  18. // 创建一个文件系统,用来获取缓存文件的io流
  19. FileSystem fs = FileSystem.get(new URI("hdfs://192.168.218.55:9000"), context.getConfiguration(), "root");
  20. // 获取缓存文件的io流
  21. FSDataInputStream open = fs.open(new Path(path));
  22. // 将io流转换为字符缓冲流,可以实现一次读取文件的一行数据
  23. BufferedReader br = new BufferedReader(new InputStreamReader(open));
  24. String line = null;
  25. while ((line = br.readLine()) != null) {
  26. // 把一行数据切割,得到[1, 小米]
  27. String[] array = line.split("\t");
  28. // 将数据传到集合中
  29. products.put(array[0], array[1]);
  30. }
  31. } catch (URISyntaxException e) {
  32. e.printStackTrace();
  33. }
  34. }
  35.  
  36. /**
  37. * map只需要处理订单表的数据即可
  38. * @param key
  39. * @param value
  40. * @param context
  41. * @throws IOException
  42. * @throws InterruptedException
  43. */
  44. @Override
  45. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  46. // order.txt中的一行数据 [1001, 01, 5]
  47. String[] array = value.toString().split("\t");
  48. String orderId = array[0];
  49. String pid = array[1];
  50. String amount = array[2];
  51.  
  52. // 获取产品名---根据订单文件的pid去刚刚缓存下来的产品集合中获取值即可
  53. String pname = products.get(pid);
  54. String line = orderId + "\t" + pname + "\t" + amount;
  55. context.write(NullWritable.get(), new Text(line));
  56. }
  57. }

运行截图

案例二:学生信息表(三表连接)

需求

总共有三张表:一张表是student表,里面存储了学生id,学生所在班级id以及学生的分数;一张表是class表,里面记录了班级id、班级所在系的id、班级名称;一张表是dept表,里面存储了系id以及系名称。

最后要求以“学生id      班级名称        系名称    分数”这样的格式输出到结果文件中。

思路

同案例一,分析需求可以将class表和dept表视作小标,通过缓冲流存储在两个Map集合中,键值都为他们的id,然后在map()方法中读取学生表信息,将学生表中存储的id和Map集合中对应起来,获得到对应的值,最后输出到结果文件中

源代码

1) SchoolDriver.java

  1. public class SchoolDriver {
  2. public static void main(String[] args) throws Exception {
  3. Configuration conf = new Configuration();
  4. conf.set("fs.defaultFS", "hdfs://192.168.218.55:9000");
  5. Job job = Job.getInstance(conf);
  6.  
  7. job.setJarByClass(SchoolDriver.class);
  8. job.setMapperClass(SchoolMapper.class);
  9. job.setOutputKeyClass(NullWritable.class);
  10. job.setOutputValueClass(Text.class);
  11. job.setNumReduceTasks(0);
  12. job.addCacheFile(new URI("/school/stu/class.txt"));
  13. job.addCacheFile(new URI("/school/stu/dept.txt"));
  14.  
  15. FileInputFormat.setInputPaths(job, new Path("/school/stu/student.txt"));
  16. FileSystem fs = FileSystem.get(new URI("hdfs://192.168.218.55:9000"), conf, "root");
  17. Path path = new Path("/test/school/school_map");
  18. if (fs.exists(path)) {
  19. fs.delete(path, true);
  20. }
  21. FileOutputFormat.setOutputPath(job, path);
  22.  
  23. boolean b = job.waitForCompletion(true);
  24. System.exit(b ? 0 : 1);
  25.  
  26. }
  27. }

2) SchoolMapper.java

  1. public class SchoolMapper extends Mapper<LongWritable, Text, NullWritable, Text> {
  2. Map<String, String> dept = new HashMap<>();
  3. Map<String, String[]> cla = new HashMap<>();
  4. @Override
  5. protected void setup(Context context) throws IOException, InterruptedException {
  6. URI[] cacheFiles = context.getCacheFiles();
  7. URI file1 = cacheFiles[0];
  8. URI file2 = cacheFiles[1];
  9. String path1 = file1.getPath();
  10. String path2 = file2.getPath();
  11. FileSystem fs = FileSystem.get(context.getConfiguration());
  12. FSDataInputStream open1 = fs.open(new Path(path1));
  13. FSDataInputStream open2 = fs.open(new Path(path2));
  14. BufferedReader br1 = new BufferedReader(new InputStreamReader(open1));
  15. BufferedReader br2 = new BufferedReader(new InputStreamReader(open2));
  16. String line = null;
  17. while ((line = br1.readLine()) != null) {
  18. String[] split = line.split("\t");
  19. cla.put(split[0], new String[]{split[1], split[2]});
  20. }
  21. while ((line = br2.readLine()) != null) {
  22. String[] split = line.split("\t");
  23. dept.put(split[0], split[1]);
  24. }
  25. }
  26.  
  27. @Override
  28. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  29. String line = value.toString();
  30. String[] split = line.split("\t");
  31. String[] classInfo = cla.get(split[1]);
  32. String sid = split[0];
  33. String className = classInfo[1];
  34. String deptName = dept.get(classInfo[0]);
  35. String score = split[2];
  36.  
  37. String result = sid + "\t" + className + "\t" + deptName + "\t" + score;
  38. context.write(NullWritable.get(), new Text(result));
  39. }
  40. }

运行截图

MapReduce框架-Join的使用的更多相关文章

  1. 使用MapReduce实现join操作

     在关系型数据库中,要实现join操作是非常方便的,通过sql定义的join原语就可以实现.在hdfs存储的海量数据中,要实现join操作,可以通过HiveQL很方便地实现.不过HiveQL也是转化成 ...

  2. hadoop中MapReduce多种join实现实例分析

    转载自:http://zengzhaozheng.blog.51cto.com/8219051/1392961 1.在Reudce端进行连接. 在Reudce端进行连接是MapReduce框架进行表之 ...

  3. MapReduce多种join实现实例分析(二)

    上一篇<MapReduce多种join实现实例分析(一)>,大家可以点击回顾该篇文章.本文是MapReduce系列第二篇. 一.在Map端进行连接使用场景:一张表十分小.一张表很大.用法: ...

  4. MapReduce多种join实现实例分析(一)

    一.概述    对于RDBMS中的join操作大伙一定非常熟悉,写sql的时候要十分注意细节,稍有差池就会耗时巨久造成很大的性能瓶颈,而在Hadoop中使用MapReduce框架进行join的操作时同 ...

  5. 传统的MapReduce框架慢在那里

    为什么之前的MapReduce系统比较慢 常理上有几个理由使得MapReduce框架慢于MPP数据库: 容错所引入的昂贵数据实体化(data materialization)开销. 孱弱的数据布局(d ...

  6. Hadoop 之 MapReduce 框架演变详解

    经典版的MapReduce 所谓的经典版本的MapReduce框架,也是Hadoop第一版成熟的商用框架,简单易用是它的特点,来看一幅图架构图: 上面的这幅图我们暂且可以称谓Hadoop的V1.0版本 ...

  7. hadoop 学习笔记:mapreduce框架详解

    开始聊mapreduce,mapreduce是hadoop的计算框架,我学hadoop是从hive开始入手,再到hdfs,当我学习hdfs时候,就感觉到hdfs和mapreduce关系的紧密.这个可能 ...

  8. Hadoop.2.x_高级应用_二次排序及MapReduce端join

    一.对于二次排序案例部分理解 1. 分析需求(首先对第一个字段排序,然后在对第二个字段排序) 杂乱的原始数据 排序完成的数据 a,1 a,1 b,1 a,2 a,2 [排序] a,100 b,6 == ...

  9. Hadoop学习笔记:MapReduce框架详解

    开始聊mapreduce,mapreduce是hadoop的计算框架,我学hadoop是从hive开始入手,再到hdfs,当我学习hdfs时候,就感觉到hdfs和mapreduce关系的紧密.这个可能 ...

随机推荐

  1. <题解>世界树

    世界树<题解> 首先我们拿到这个题之后,能想到的一定是虚树,如果想不到的话,还是重新学一遍去吧 所以我们应该怎么做呢 虚树的板子不需要我再讲一遍了吧 所以对于这个题来说,怎么根据虚树上的节 ...

  2. 易车网实战+【保姆级】:Feapder爬虫框架入门教程

    今天辰哥带大家来看看一个爬虫框架:Feapder,看完本文之后,别再说你不会Feapder了.本文辰哥将带你了解什么是Feapder?.如何去创建一个Feapder入门项目(实战:采集易车网轿车数据) ...

  3. 9、解决mstsc卡顿的问题:

    1.同时按住"win+r"键调出"运行",在方框内输入"cmd"后点击"确定"打开dos窗口: 2.在dos中输入&qu ...

  4. 增强采样软件PLUMED的安装与使用

    技术背景 增强采样(Enhanced Sampling)是一种在分子动力学模拟中常用的技术,其作用是帮助我们更加快速的在时间轴上找到尽可能多的体系结构及其对应的能量.比如一个氢气的燃烧反应,在中间过程 ...

  5. Zookeeper:Windows下Zookeeper启动zkServer.cmd闪退问题

    Zookeeper在Windows下启动只需要运行zkServer.cmd双击即可(需保证运行环境中正确安装了Java运行环境) 但是在有的时候会出现双击闪退的情况.针对闪退,可按照如下方法进行解决: ...

  6. buu 刮开有奖

    一.查壳, 二.拖入ida,分析 直接搜字符串完全没头绪,在看了大佬的wp才找到了,关键函数. 明显那个String就是我们要求的flag,要开始分析程序. 字符串长度为8,同时这个函数对字符串进行了 ...

  7. 如何使用Jdk查看源码?

    先看再点赞,给自己一点思考的时间,如果对自己有帮助,微信搜索[程序职场]关注这个执着的职场程序员.我有什么:职场规划指导,技能提升方法,讲不完的职场故事,个人成长经验. 最近,有很多读者问我,有没有j ...

  8. 『心善渊』Selenium3.0基础 — 28、unittest中测试套件的使用

    目录 1.测试套件的作用 2.使用测试套件 (1)入门示例 (2)根据不同的条件加载测试用例(了解) (3)常用方式(推荐) 1.测试套件的作用 在我们实际工作,使用unittest框架会有两个问题: ...

  9. nodejs安装+vue安装

    一.nodejs安装 电脑win7的,nodejs V12.16.2以前的版本支持win7 nodejs下载地址: http://mirrors.nju.edu.cn/nodejs/v12.15.0/ ...

  10. etcd的使用

    etcd的使用 什么是etcd etcd的特点 etcd的应用场景 服务注册与发现 消息发布和订阅 负载均衡 分布式通知与协调 分布式锁 分布式队列 集群监控与Leader竞选 参考 etcd的使用 ...