hadoop(二MapReduce)


介绍

MapReduce:其实就是把数据分开处理后再将数据合在一起.

  • Map负责“分”,即把复杂的任务分解为若干个“简单的任务”来并行处理。可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。
  • Reduce负责“合”,即对map阶段的结果进行全局汇总。
  • MapReduce运行在yarn集群

MapReduce中定义了如下的MapReduce两个抽象的编程接口,由用户去编程实现.Map和Reduce,

MapReduce处理的数据类型是键值对


代码处理

MapReduce 的开发一共有八个步骤, 其中 Map 阶段分为 2 个步骤,Shuwle 阶段 4 个步 
骤,Reduce 阶段分为 2 个步骤

​ Map 阶段 2 个步骤

  1. 设置 InputFormat 类, 将数据切分为 Key-Value(K1和V1) 对, 输入到第二步
  2. 自定义 Map 逻辑, 将第一步的结果转换成另外的 Key-Value(K2和V2) 对, 输出结果 
    Shuwle 阶段 4 个步骤
  3. 对输出的 Key-Value 对进行分区
  4. 对不同分区的数据按照相同的 Key 排序
  5. (可选) 对分组过的数据初步规约, 降低数据的网络拷贝
  6. 对数据进行分组, 相同 Key 的 Value 放入一个集合中 
    Reduce 阶段 2 个步骤
  7. 对多个 Map 任务的结果进行排序以及合并, 编写 Reduce 函数实现自己的逻辑, 对输入的 
    Key-Value 进行处理, 转为新的 Key-Value(K3和V3)输出
  8. 设置 OutputFormat 处理并保存 Reduce 输出的 Key-Value 数据

常用Maven依赖

  1. <packaging>jar</packaging>
  2. <dependencies>
  3. <dependency>
  4. <groupId>org.apache.hadoop</groupId>
  5. <artifactId>hadoop-common</artifactId>
  6. <version>2.7.5</version>
  7. </dependency>
  8. <dependency>
  9. <groupId>org.apache.hadoop</groupId>
  10. <artifactId>hadoop-client</artifactId>
  11. <version>2.7.5</version>
  12. </dependency>
  13. <dependency>
  14. <groupId>org.apache.hadoop</groupId>
  15. <artifactId>hadoop-hdfs</artifactId>
  16. <version>2.7.5</version>
  17. </dependency>
  18. <dependency>
  19. <groupId>org.apache.hadoop</groupId>
  20. <artifactId>hadoop-mapreduce-client-core</artifactId>
  21. <version>2.7.5</version>
  22. </dependency>
  23. <dependency>
  24. <groupId>junit</groupId>
  25. <artifactId>junit</artifactId>
  26. <version>RELEASE</version>
  27. </dependency>
  28. </dependencies>
  29. <build>
  30. <plugins>
  31. <plugin>
  32. <groupId>org.apache.maven.plugins</groupId>
  33. <artifactId>maven-compiler-plugin</artifactId>
  34. <version>3.1</version>
  35. <configuration>
  36. <source>1.8</source>
  37. <target>1.8</target>
  38. <encoding>UTF-8</encoding>
  39. <!-- <verbal>true</verbal>-->
  40. </configuration>
  41. </plugin>
  42. <plugin>
  43. <groupId>org.apache.maven.plugins</groupId>
  44. <artifactId>maven-shade-plugin</artifactId>
  45. <version>2.4.3</version>
  46. <executions>
  47. <execution>
  48. <phase>package</phase>
  49. <goals>
  50. <goal>shade</goal>
  51. </goals>
  52. <configuration>
  53. <minimizeJar>true</minimizeJar>
  54. </configuration>
  55. </execution>
  56. </executions>
  57. </plugin>
  58. </plugins>
  59. </build>

入门---统计

结构

  1. /*
  2. 四个泛型解释:
  3. KEYIN :K1的类型
  4. VALUEIN: V1的类型
  5. KEYOUT: K2的类型
  6. VALUEOUT: V2的类型
  7. */
  8. public class WordCountMapper extends Mapper<LongWritable,Text, Text , LongWritable> {
  9. //map方法就是将K1和V1 转为 K2和V2
  10. /*
  11. 参数:
  12. key : K1 行偏移量(默认几乎一直固定为LongWritable)
  13. value : V1 每一行的文本数据
  14. context :表示上下文对象
  15. */
  16. /*
  17. 如何将K1和V1 转为 K2和V2
  18. K1 V1
  19. 0 hello,world,hadoop
  20. 15 hdfs,hive,hello
  21. ---------------------------
  22. K2 V2
  23. hello 1
  24. world 1
  25. hdfs 1
  26. hadoop 1
  27. hello 1
  28. */
  29. @Override
  30. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  31. Text text = new Text();
  32. LongWritable longWritable = new LongWritable();
  33. //1:将一行的文本数据进行拆分
  34. String[] split = value.toString().split(",");
  35. //2:遍历数组,组装 K2 和 V2
  36. for (String word : split) {
  37. //3:将K2和V2写入上下文
  38. text.set(word);
  39. longWritable.set();
  40. context.write(text, longWritable);
  41. }
  42. }
  43. }


  1. /*
  2. 四个泛型解释:
  3. KEYIN: K2类型
  4. VALULEIN: V2类型
  5. KEYOUT: K3类型
  6. VALUEOUT:V3类型
  7. */
  8. public class WordCountReducer extends Reducer<Text,LongWritable,Text,LongWritable> {
  9. //reduce方法作用: 将新的K2和V2转为 K3和V3 ,将K3和V3写入上下文中
  10. /*
  11. 参数:
  12. key : 新K2
  13. values: 集合 新 V2
  14. context :表示上下文对象
  15. ----------------------
  16. 如何将新的K2和V2转为 K3和V3
  17. 新 K2 V2
  18. hello <1,1,1>
  19. world <1,1>
  20. hadoop <1>
  21. ------------------------
  22. K3 V3
  23. hello 3
  24. world 2
  25. hadoop 1
  26. */
  27. @Override
  28. protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
  29. long count = ;
  30. //1:遍历集合,将集合中的数字相加,得到 V3
  31. for (LongWritable value : values) {
  32. count += value.get();
  33. }
  34. //2:将K3和V3写入上下文中
  35. context.write(key, new LongWritable(count));
  36. }
  37. }

  1. public class JobMain extends Configured implements Tool {
  2. //该方法用于指定一个job任务
  3. @Override
  4. public int run(String[] args) throws Exception {
  5. //1:创建一个job任务对象
  6. Job job = Job.getInstance(super.getConf(), "wordcount");
  7. //如果打包运行出错,则需要加该配置
  8. job.setJarByClass(JobMain.class);
  9. //2:配置job任务对象(八个步骤)
  10. //第一步:指定文件的读取方式和读取路径
  11. job.setInputFormatClass(TextInputFormat.class);
  12. TextInputFormat.addInputPath(job, new Path("hdfs://node01:8020/wordcount"));
  13. //TextInputFormat.addInputPath(job, new Path("file:///D:\\mapreduce\\input"));
  14. //第二步:指定Map阶段的处理方式和数据类型
  15. job.setMapperClass(WordCountMapper.class);
  16. //设置Map阶段K2的类型
  17. job.setMapOutputKeyClass(Text.class);
  18. //设置Map阶段V2的类型
  19. job.setMapOutputValueClass(LongWritable.class);
  20. //第三,四,五,六 采用默认的方式
  21. //第七步:指定Reduce阶段的处理方式和数据类型
  22. job.setReducerClass(WordCountReducer.class);
  23. //设置K3的类型
  24. job.setOutputKeyClass(Text.class);
  25. //设置V3的类型
  26. job.setOutputValueClass(LongWritable.class);
  27. //第八步: 设置输出类型
  28. job.setOutputFormatClass(TextOutputFormat.class);
  29. //设置输出的路径
  30. Path path = new Path("hdfs://node01:8020/wordcount_out");
  31. TextOutputFormat.setOutputPath(job, path);
  32. //TextOutputFormat.setOutputPath(job, new Path("file:///D:\\mapreduce\\output"));
  33. //获取FileSystem
  34. FileSystem fileSystem = FileSystem.get(new URI("hdfs://node01:8020"), new Configuration());
  35. //判断目录是否存在
  36. boolean bl2 = fileSystem.exists(path);
  37. if(bl2){
  38. //删除目标目录
  39. fileSystem.delete(path, true);
  40. }
  41. //等待任务结束
  42. boolean bl = job.waitForCompletion(true);
  43. return bl ? :;
  44. }
  45. public static void main(String[] args) throws Exception {
  46. Configuration configuration = new Configuration();
  47. //启动job任务
  48. int run = ToolRunner.run(configuration, new JobMain(), args);
  49. System.exit(run);
  50. }
  51. }

shuwle阶段

分区

分区实则目的是按照我们的需求,将不同类型的数据分开处理,最终分开获取

代码实现

结构

  1. public class MyPartitioner extends Partitioner<Text,NullWritable> {
  2. /*
  3. 1:定义分区规则
  4. 2:返回对应的分区编号
  5. */
  6. @Override
  7. public int getPartition(Text text, NullWritable nullWritable, int i) {
  8. //1:拆分行文本数据(K2),获取中奖字段的值
  9. String[] split = text.toString().split("\t");
  10. String numStr = split[];
  11. //2:判断中奖字段的值和15的关系,然后返回对应的分区编号
  12. if(Integer.parseInt(numStr) > ){
  13. return ;
  14. }else{
  15. return ;
  16. }
  17. }
  18. }

  1. //第三步,指定分区类
  2. job.setPartitionerClass(MyPartitioner.class);
  3. //第四, 五,六步
  4. //设置ReduceTask的个数
  5. job.setNumReduceTasks();

MapReduce 中的计数器

计数器是收集作业统计信息的有效手段之一,用于质量控制或应用级统计

可辅助诊断系统故障

看能否用一个计数器值来记录某一特定事件的发生 ,比分析一堆日志文件容易

通过enum枚举类型来定义计数器 统计reduce端数据的输入的key有多少个

  1. public class PartitionerReducer extends Reducer<Text,NullWritable,Text,NullWritable> {
  2. public static enum Counter{
  3. MY_INPUT_RECOREDS,MY_INPUT_BYTES
  4. }
  5. @Override
  6. protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
  7. //方式2:使用枚枚举来定义计数器
  8. context.getCounter(Counter.MY_INPUT_RECOREDS).increment(1L);
  9. context.write(key, NullWritable.get());
  10. }
  11. }

排序(包含序列化)

  • 序列化 (Serialization) 是指把结构化对象转化为字节流
  • 反序列化 (Deserialization) 是序列化的逆过程. 把字节流转为结构化对象. 当要在进程间传 
    递对象或持久化对象的时候, 就需要序列化对象成字节流, 反之当要将接收到或从磁盘读取 
    的字节流转换为对象, 就要进行反序列化
  • Java 的序列化 (Serializable) 是一个重量级序列化框架, 一个对象被序列化后, 会附带很多额 
    外的信息 (各种校验信息, header, 继承体系等), 不便于在网络中高效传输. 所以, Hadoop 
    自己开发了一套序列化机制(Writable), 精简高效. 不用像 Java 对象类一样传输多层的父子 
    关系, 需要哪个属性就传输哪个属性值, 大大的减少网络传输的开销
  • Writable 是 Hadoop 的序列化格式, Hadoop 定义了这样一个 Writable 接口. 一个类要支持可 
    序列化只需实现这个接口即可
  • 另外 Writable 有一个子接口是 WritableComparable, WritableComparable 是既可实现序列 
    化, 也可以对key进行比较, 我们这里可以通过自定义 Key 实现 WritableComparable 来实现 
    我们的排序功能

  1. public class SortBean implements WritableComparable<SortBean>{
  2. private String word;
  3. private int num;
  4. public String getWord() {
  5. return word;
  6. }
  7. public void setWord(String word) {
  8. this.word = word;
  9. }
  10. public int getNum() {
  11. return num;
  12. }
  13. public void setNum(int num) {
  14. this.num = num;
  15. }
  16. @Override
  17. public String toString() {
  18. return word + "\t"+ num ;
  19. }
  20. //实现比较器,指定排序的规则
  21. /*
  22. 规则:
  23. 第一列(word)按照字典顺序进行排列 // aac aad
  24. 第一列相同的时候, 第二列(num)按照升序进行排列
  25. */
  26. @Override
  27. public int compareTo(SortBean sortBean) {
  28. //先对第一列排序: Word排序
  29. int result = this.word.compareTo(sortBean.word);
  30. //如果第一列相同,则按照第二列进行排序
  31. if(result == ){
  32. return this.num - sortBean.num;
  33. }
  34. return result;
  35. }
  36. //实现序列化
  37. @Override
  38. public void write(DataOutput out) throws IOException {
  39. out.writeUTF(word);
  40. out.writeInt(num);
  41. }
  42. //实现反序列
  43. @Override
  44. public void readFields(DataInput in) throws IOException {
  45. this.word = in.readUTF();
  46. this.num = in.readInt();
  47. }
  48. }
  1. public class SortMapper extends Mapper<LongWritable,Text,SortBean,NullWritable> {
  2. /*
  3. map方法将K1和V1转为K2和V2:
  4. K1 V1
  5. 0 a 3
  6. 5 b 7
  7. ----------------------
  8. K2 V2
  9. SortBean(a 3) NullWritable
  10. SortBean(b 7) NullWritable
  11. */
  12. @Override
  13. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  14. //1:将行文本数据(V1)拆分,并将数据封装到SortBean对象,就可以得到K2
  15. String[] split = value.toString().split("\t");
  16. SortBean sortBean = new SortBean();
  17. sortBean.setWord(split[]);
  18. sortBean.setNum(Integer.parseInt(split[]));
  19. //2:将K2和V2写入上下文中
  20. context.write(sortBean, NullWritable.get());
  21. }
  22. }
  1. public class SortReducer extends Reducer<SortBean,NullWritable,SortBean,NullWritable> {
  2. //reduce方法将新的K2和V2转为K3和V3
  3. @Override
  4. protected void reduce(SortBean key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
  5. context.write(key, NullWritable.get());
  6. }
  7. }

job略


规约Combiner

在三大阶段的第一阶段map处理完后,可能数据过多,利用分布式思想,抢在reduce前先做一次合并,后再由reduce合并,目的是:提高网络IO 性能

实现步骤

  1. //第三(分区),四 (排序)
  2. //第五步: 规约(Combiner)
  3. job.setCombinerClass(MyCombiner.class);
  4. //第六步 分布


案例:流量统计(key相同则++++++++)

  1. public class FlowBean implements Writable {
  2. private Integer upFlow; //上行数据包数
  3. private Integer downFlow; //下行数据包数
  4. private Integer upCountFlow; //上行流量总和
  5. private Integer downCountFlow;//下行流量总和
  6. //下略get set 序列化 反序列化
  1. public class FlowCountMapper extends Mapper<LongWritable,Text,Text,FlowBean> {
  2. /*
  3. 将K1和V1转为K2和V2:
  4. K1 V1
  5. 0 1363157985059 13600217502 00-1F-64-E2-E8-B1:CMCC 120.196.100.55 www.baidu.com 综合门户 19 128 1177 16852 200
  6. ------------------------------
  7. K2 V2
  8. 13600217502 FlowBean(19 128 1177 16852)
  9. */
  10. @Override
  11. protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
  12. //1:拆分行文本数据,得到手机号--->K2
  13. String[] split = value.toString().split("\t");
  14. String phoneNum = split[];
  15. //2:创建FlowBean对象,并从行文本数据拆分出流量的四个四段,并将四个流量字段的值赋给FlowBean对象
  16. FlowBean flowBean = new FlowBean();
  17. flowBean.setUpFlow(Integer.parseInt(split[]));
  18. flowBean.setDownFlow(Integer.parseInt(split[]));
  19. flowBean.setUpCountFlow(Integer.parseInt(split[]));
  20. flowBean.setDownCountFlow(Integer.parseInt(split[]));
  21. //3:将K2和V2写入上下文中
  22. context.write(new Text(phoneNum), flowBean);
  23. }
  24. }
  1. public class FlowCountReducer extends Reducer<Text,FlowBean,Text,FlowBean> {
  2. @Override
  3. protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {
  4. //1:遍历集合,并将集合中的对应的四个字段累计
  5. Integer upFlow = ; //上行数据包数
  6. Integer downFlow = ; //下行数据包数
  7. Integer upCountFlow = ; //上行流量总和
  8. Integer downCountFlow = ;//下行流量总和
  9. for (FlowBean value : values) {
  10. upFlow += value.getUpFlow();
  11. downFlow += value.getDownFlow();
  12. upCountFlow += value.getUpCountFlow();
  13. downCountFlow += value.getDownCountFlow();
  14. }
  15. //2:创建FlowBean对象,并给对象赋值 V3
  16. FlowBean flowBean = new FlowBean();
  17. flowBean.setUpFlow(upFlow);
  18. flowBean.setDownFlow(downFlow);
  19. flowBean.setUpCountFlow(upCountFlow);
  20. flowBean.setDownCountFlow(downCountFlow);
  21. //3:将K3和V3下入上下文中
  22. context.write(key, flowBean);
  23. }
  24. }
  1. public class JobMain extends Configured implements Tool {
  2. //该方法用于指定一个job任务
  3. @Override
  4. public int run(String[] args) throws Exception {
  5. //1:创建一个job任务对象
  6. Job job = Job.getInstance(super.getConf(), "mapreduce_flowcount");
  7. //如果打包运行出错,则需要加该配置
  8. job.setJarByClass(JobMain.class);
  9. //2:配置job任务对象(八个步骤)
  10. //第一步:指定文件的读取方式和读取路径
  11. job.setInputFormatClass(TextInputFormat.class);
  12. //TextInputFormat.addInputPath(job, new Path("hdfs://node01:8020/wordcount"));
  13. TextInputFormat.addInputPath(job, new Path("file:///D:\\input\\flowcount_input"));
  14. //第二步:指定Map阶段的处理方式和数据类型
  15. job.setMapperClass(FlowCountMapper.class);
  16. //设置Map阶段K2的类型
  17. job.setMapOutputKeyClass(Text.class);
  18. //设置Map阶段V2的类型
  19. job.setMapOutputValueClass(FlowBean.class);
  20. //第三(分区),四 (排序)
  21. //第五步: 规约(Combiner)
  22. //第六步 分组
  23. //第七步:指定Reduce阶段的处理方式和数据类型
  24. job.setReducerClass(FlowCountReducer.class);
  25. //设置K3的类型
  26. job.setOutputKeyClass(Text.class);
  27. //设置V3的类型
  28. job.setOutputValueClass(FlowBean.class);
  29. //第八步: 设置输出类型
  30. job.setOutputFormatClass(TextOutputFormat.class);
  31. //设置输出的路径
  32. TextOutputFormat.setOutputPath(job, new Path("file:///D:\\out\\flowcount_out"));
  33. //等待任务结束
  34. boolean bl = job.waitForCompletion(true);
  35. return bl ? :;
  36. }
  37. public static void main(String[] args) throws Exception {
  38. Configuration configuration = new Configuration();
  39. //启动job任务
  40. int run = ToolRunner.run(configuration, new JobMain(), args);
  41. System.exit(run);
  42. }
  43. }

如增加需求:

上行流量倒序排序

  1. public class FlowBean implements WritableComparable<FlowBean> {
  2. //指定排序的规则
  3. @Override
  4. public int compareTo(FlowBean flowBean) {
  5. // return this.upFlow.compareTo(flowBean.getUpFlow()) * -1;
  6. return flowBean.upFlow - this.upFlow ;
  7. }
  8. }

需求:手机号码分区

  1. public class FlowCountPartition extends Partitioner<Text,FlowBean> {
  2. /*
  3. 该方法用来指定分区的规则:
  4. 135 开头数据到一个分区文件
  5. 136 开头数据到一个分区文件
  6. 137 开头数据到一个分区文件
  7. 其他分区
  8. 参数:
  9. text : K2 手机号
  10. flowBean: V2
  11. i : ReduceTask的个数
  12. */
  13. @Override
  14. public int getPartition(Text text, FlowBean flowBean, int i) {
  15. //1:获取手机号
  16. String phoneNum = text.toString();
  17. //2:判断手机号以什么开头,返回对应的分区编号(0-3)
  18. if(phoneNum.startsWith("135")){
  19. return ;
  20. }else if(phoneNum.startsWith("136")){
  21. return ;
  22. }else if(phoneNum.startsWith("137")){
  23. return ;
  24. }else{
  25. return ;
  26. }
  27. }
  28. }
  1. //第三(分区),四 (排序)
  2. job.setPartitionerClass(FlowCountPartition.class);
  3. //第五步: 规约(Combiner)
  4. //第六步 分组
  5. //设置reduce个数
  6. job.setNumReduceTasks();

hadoop(二MapReduce)的更多相关文章

  1. Hadoop之MapReduce程序应用三

    摘要:MapReduce程序进行数据去重. 关键词:MapReduce   数据去重 数据源:人工构造日志数据集log-file1.txt和log-file2.txt. log-file1.txt内容 ...

  2. Hadoop基础-MapReduce入门篇之编写简单的Wordcount测试代码

    Hadoop基础-MapReduce入门篇之编写简单的Wordcount测试代码 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本文主要是记录一写我在学习MapReduce时的一些 ...

  3. MapReduce教程(二)MapReduce框架Partitioner分区<转>

    1 Partitioner分区 1.1 Partitioner分区描述 在进行MapReduce计算时,有时候需要把最终的输出数据分到不同的文件中,按照手机号码段划分的话,需要把同一手机号码段的数据放 ...

  4. Hadoop基础-MapReduce的常用文件格式介绍

    Hadoop基础-MapReduce的常用文件格式介绍 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.MR文件格式-SequenceFile 1>.生成SequenceF ...

  5. Hadoop基础-MapReduce的Join操作

    Hadoop基础-MapReduce的Join操作 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.连接操作Map端Join(适合处理小表+大表的情况) no001 no002 ...

  6. Hadoop基础-MapReduce的排序

    Hadoop基础-MapReduce的排序 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.MapReduce的排序分类 1>.部分排序 部分排序是对单个分区进行排序,举个 ...

  7. Hadoop基础-MapReduce的数据倾斜解决方案

    Hadoop基础-MapReduce的数据倾斜解决方案 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.数据倾斜简介 1>.什么是数据倾斜 答:大量数据涌入到某一节点,导致 ...

  8. Hadoop基础-MapReduce的Partitioner用法案例

    Hadoop基础-MapReduce的Partitioner用法案例 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Partitioner关键代码剖析 1>.返回的分区号 ...

  9. Hadoop基础-MapReduce的Combiner用法案例

    Hadoop基础-MapReduce的Combiner用法案例 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.编写年度最高气温统计 如上图说所示:有一个temp的文件,里面存放 ...

随机推荐

  1. CF #589 (Div. 2) D. Complete Tripartite 构造

    这个 D 还是十分友好的~ 你发现这 $3$ 个集合形成了一个环的关系,所以随意调换顺序是无所谓的. 然后随便让 $1$ 个点成为第 $2$ 集合,那么不与这个点连边的一定也属于第二集合. 然后再随便 ...

  2. 安装包设计-------安装(QT)---------知识总结

    1.判断文件是否存在 QFile file(path): file.exists(); 2.复制文件 bool copy(const QString &fileName, const QStr ...

  3. 数据结构实验之二叉树三:统计叶子数 SDUT 3342

    #include <stdio.h> #include <string.h> struct node { char data; struct node *l,*r; }; st ...

  4. prometheus简单监控Linux,mysql,nginx

    prometheus安装 下载安装 #官网下载 解压即可使用 https://prometheus.io/download/ #docker 方式安装 sudo docker run -n prome ...

  5. Vs中包含目录、库目录、附加包含目录、附加库目录、附加依赖项之详解

    VS项目中的包含目录.库目录.附加包含目录.附加库目录.附加依赖项均在"项目->属性->配置属性"下进行配置,具体说明如下: VC++目录: 包含目录:寻找#inclu ...

  6. 存在日期类型的JSON数据,进行SpringMVC参数绑定时存在的问题和解决方案

    这篇文章已经过时了. 请参考比较合适的前后端交互方式. 首先是发送AJAX请求的html页面 <!DOCTYPE html> <html> <head> <m ...

  7. Ubuntu 14.04 更换为阿里云源

    #备份sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak#编辑sudo vim /etc/apt/sources.list,清空后,加入以下 ...

  8. Python学习日记(六)——内置函数和文件操作(lambda)

    lambda表达式 学习条件运算时,对于简单的 if else 语句,可以使用三元运算来表示,即: # 普通条件语句 if 1 == 1: name = 'prime' else: name = 'c ...

  9. HDU 4380 Farmer Greedy(叉积和三角形知识的综合应用)

    题目链接:http://acm.hust.edu.cn/vjudge/contest/view.action?cid=115760#problem/A 题目意思大致为由n个点(n小于100)和m个金矿 ...

  10. ICEM-五通孔管

    原视频下载地址:https://yunpan.cn/cqaQ2t5DrRcKa  访问密码 d111