交通流的数据分析,需求是对于海量的城市交通数据,需要使用MapReduce清洗后导入到HBase中存储,然后使用Hive外部表关联HBase,对HBase中数据进行查询、统计分析,将分析结果保存在一张Hive表中,最后使用Sqoop将该表中数据导入到MySQL中。整个流程大概如下:

下面我主要介绍Hive关联HBase表——Sqoop导出Hive表到MySQL这些流程,原始数据集收集、MapReduce清洗及WEB界面展示此处不介绍。

一、HBase数据库表

  1. hbase(main):003:0> list
  2. TABLE
  3. transtable
  4. 1 row(s) in 0.0250 seconds
  5. => ["transtable"]
  6. hbase(main):004:0> describe 'transtable'
  7. DESCRIPTION                                                                                                        ENABLED
  8. 'transtable', {NAME => 'jtxx', DATA_BLOCK_ENCODING => 'NONE', BLOOMFILTER => 'ROW', REPLICATION_SCOPE => '0', VER true
  9. SIONS => '1', COMPRESSION => 'NONE', MIN_VERSIONS => '0', TTL => '2147483647', KEEP_DELETED_CELLS => 'false', BLO
  10. CKSIZE => '65536', IN_MEMORY => 'false', BLOCKCACHE => 'true'}
  11. 1 row(s) in 0.0480 seconds

创建一个名叫“transtable”的HBase表,列族是:“jtxx”。HBase中的部分数据如下:

  1. hbase(main):008:0> get 'transtable','32108417000000013220140317000701'
  2. COLUMN                                        CELL
  3. jtxx:cdbh                                    timestamp=1429597736296, value=03
  4. jtxx:clbj                                    timestamp=1429597736296, value=0
  5. jtxx:cllb                                    timestamp=1429597736296, value=0
  6. jtxx:cllx                                    timestamp=1429597736296, value=3
  7. jtxx:clsd                                    timestamp=1429597736296, value=127.00
  8. jtxx:hphm                                    timestamp=1429597736296, value=\xE8\x8B\x8FKYV152
  9. jtxx:wflx                                    timestamp=1429597736296, value=0
  10. jtxx:xsfx                                    timestamp=1429597736296, value=03
  11. 8 row(s) in 0.1550 seconds

二、创建Hive外部表关联HBase表

  1. create external table transJtxx_Hbase
  2. (
  3. clxxbh string,
  4. xsfx string,
  5. cdbh string,
  6. hphm string,
  7. clsd string,
  8. cllx string,
  9. clbj string,
  10. cllb string,
  11. wflx string
  12. )
  13. stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
  14. with serdeproperties ("hbase.columns.mapping" =":key,jtxx:xsfx,jtxx:cdbh,jtxx:hphm,jtxx:clsd,jtxx:cllx,jtxx:clbj,jtxx:cllb,jtxx:wflx") TBLPROPERTIES ("hbase.table.name" = "transtable");

hbase.columns.mapping要对应hbase数据库transtable表中列族下的列限定符。此处一定要是外部表

查看是否关联成功,如何执行一条语句能够查询出HBase表中数据,则关联成功。

  1. hive> select *  from transjtxx_hbase where clxxbh like '321084170000000132%';
  2. Total jobs = 1
  3. Launching Job 1 out of 1
  4. Number of reduce tasks is set to 0 since there's no reduce operator
  5. Starting Job = job_1428394594787_0007, Tracking URL = http://secondmgt:8088/proxy/application_1428394594787_0007/
  6. Kill Command = /home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0/bin/hadoop job  -kill job_1428394594787_0007
  7. Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
  8. 2015-04-21 17:27:18,136 Stage-1 map = 0%,  reduce = 0%
  9. 2015-04-21 17:27:35,029 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 12.31 sec
  10. MapReduce Total cumulative CPU time: 12 seconds 310 msec
  11. Ended Job = job_1428394594787_0007
  12. MapReduce Jobs Launched:
  13. Job 0: Map: 1   Cumulative CPU: 12.31 sec   HDFS Read: 256 HDFS Write: 636 SUCCESS
  14. Total MapReduce CPU Time Spent: 12 seconds 310 msec
  15. OK
  16. 32108417000000013220140317000701        03      03      苏KYV152        127.00  3       0       0       0
  17. 32108417000000013220140317000705        02      03      苏KRU593        127.00  2       0       0       0
  18. 32108417000000013220140317000857        03      02      苏KYL920        28.00   4       0       0       0
  19. 32108417000000013220140317001145        02      02      苏K19V75        136.00  6       0       0       0
  20. 32108417000000013220140317001157        02      02      鲁QV0897        150.00  4       0       0       0
  21. 32108417000000013220140317001726        02      02      苏KL2938        23.00   1       0       0       0
  22. 32108417000000013220140317001836        02      02      苏J5S373        142.00  4       0       0       0
  23. 32108417000000013220140317001844        02      02      苏KK8332        158.00  3       0       0       0
  24. 32108417000000013220140317002039        03      02      苏KK8820        17.00   0       0       0       0
  25. 32108417000000013220140317002206        03      03      苏KK8902        32.00   4       0       0       0
  26. Time taken: 36.018 seconds, Fetched: 10 row(s)

三、创建用于存放查询、统计分析结果的Hive表

因为此处我是模拟环境,所以我创建一个和hive关联表transjtxx_hbase一样字段类型的表,用于存放查询结果,如下:

  1. hive> create table temptrans
  2. > (clxxbh string,
  3. >     xsfx string,
  4. >     cdbh string,
  5. >     hphm string,
  6. >     clsd string,
  7. >     cllx string,
  8. >     clbj string,
  9. >     cllb string,
  10. >     wflx string
  11. > ) ;
  12. OK
  13. Time taken: 0.112 seconds

四、通过查询结果向Hive表中插入数据

使用Hive表四种数据导入方式之一——通过SQL查询语句向Hive表中插入数据。(详细介绍可以查看我的另外一篇博文:Hive表中四种不同数据导出方式以及如何自定义导出列分隔符)此处我以查询某个路口过往车辆为例。因为,clxxbh是由路口编号+日期组成,此处不使用overwrite,是因为后续会循环执行,之前导入的数据需要保留,所以必须使用into,如下:

  1. hive> insert into table temptrans select *  from transjtxx_hbase where clxxbh like '321084170000000133%';
  2. Total jobs = 3
  3. Launching Job 1 out of 3
  4. Number of reduce tasks is set to 0 since there's no reduce operator
  5. Starting Job = job_1428394594787_0009, Tracking URL = http://secondmgt:8088/proxy/application_1428394594787_0009/
  6. Kill Command = /home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0/bin/hadoop job  -kill job_1428394594787_0009
  7. Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
  8. 2015-04-21 19:05:03,398 Stage-1 map = 0%,  reduce = 0%
  9. 2015-04-21 19:05:24,091 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 12.71 sec
  10. MapReduce Total cumulative CPU time: 12 seconds 710 msec
  11. Ended Job = job_1428394594787_0009
  12. Stage-4 is selected by condition resolver.
  13. Stage-3 is filtered out by condition resolver.
  14. Stage-5 is filtered out by condition resolver.
  15. Moving data to: hdfs://secondmgt:8020/hive/scratchdir/hive_2015-04-21_19-04-48_325_2835499611469580351-1/-ext-10000
  16. Loading data to table hive.temptrans
  17. Table hive.temptrans stats: [numFiles=2, numRows=12, totalSize=1380, rawDataSize=732]
  18. MapReduce Jobs Launched:
  19. Job 0: Map: 1   Cumulative CPU: 12.71 sec   HDFS Read: 256 HDFS Write: 815 SUCCESS
  20. Total MapReduce CPU Time Spent: 12 seconds 710 msec
  21. OK
  22. Time taken: 37.229 seconds
  1. hive> select * from tempTrans;
  2. OK
  3. 32108417000000013220140317000701        03      03      苏KYV152        127.00  3       0       0       0
  4. 32108417000000013220140317000705        02      03      苏KRU593        127.00  2       0       0       0
  5. 32108417000000013220140317000857        03      02      苏KYL920        28.00   4       0       0       0
  6. 32108417000000013220140317001145        02      02      苏K19V75        136.00  6       0       0       0
  7. 32108417000000013220140317001157        02      02      鲁QV0897        150.00  4       0       0       0
  8. 32108417000000013220140317001726        02      02      苏KL2938        23.00   1       0       0       0
  9. 32108417000000013220140317001836        02      02      苏J5S373        142.00  4       0       0       0
  10. 32108417000000013220140317001844        02      02      苏KK8332        158.00  3       0       0       0
  11. 32108417000000013220140317002039        03      02      苏KK8820        17.00   0       0       0       0
  12. 32108417000000013220140317002206        03      03      苏KK8902        32.00   4       0       0       0
  13. 32108417000000013320140317000120        02      02      苏KRW076        0.00    7       0       0       0
  14. 32108417000000013320140317000206        00      02      苏AHF730        0.00    4       0       0       0
  15. 32108417000000013320140317000207        02      02      苏KYJ792        0.00    6       0       0       0
  16. 32108417000000013320140317000530        00      01      苏K53T85        0.00    1       0       0       0
  17. 32108417000000013320140317000548        03      01      苏KR0737        0.00    7       0       0       0
  18. 32108417000000013320140317000605        03      02      苏KYU203        0.00    1       0       0       0
  19. 32108417000000013320140317000659        01      02      苏K3R762        0.00    4       0       0       0
  20. 32108417000000013320140317001042        02      03      苏KYK578        0.00    6       0       0       0
  21. 32108417000000013320140317001222        02      03      苏KK8385        0.00    2       0       0       0
  22. 32108417000000013320140317001418        02      03      苏K26F89        0.00    7       0       0       0
  23. 32108417000000013320140317001538        02      03      苏KK8987        0.00    5       0       0       0
  24. 32108417000000013320140317001732        01      01      苏KYB127        0.00    7       0       0       0
  25. Time taken: 0.055 seconds, Fetched: 22 row(s)

五、创建用于导入数据的MySQL数据库及其表

  1. mysql> create database transport;
  2. Query OK, 1 row affected (0.00 sec)
  3. mysql> use transport;
  4. Database changed
  5. mysql> create table jtxx
  6. -> (
  7. ->   clxxbh varchar(64) not null primary key,
  8. ->   xsfx varchar(2),
  9. ->   cdbh varchar(4),
  10. ->   hphm varchar(32),
  11. ->   clsd varchar(16),
  12. ->   cllx varchar(2),
  13. ->   clbj varchar(8),
  14. ->   cllb varchar(8),
  15. ->   wflx varchar(8)
  16. -> );
  17. Query OK, 0 rows affected (0.04 sec)
  18. mysql> show tables;
  19. +---------------------+
  20. | Tables_in_transport |
  21. +---------------------+
  22. | jtxx                |
  23. +---------------------+
  24. 1 row in set (0.00 sec)
  25. mysql> select * from jtxx;
  26. Empty set (0.00 sec)

此处创建MySQL表的时候,一定要注意字段名称要和Hive表中对应

六、Sqoop将Hive表数据导入到MySQL中

  1. [hadoopUser@secondmgt ~]$ sqoop-export --connect jdbc:mysql://secondmgt:3306/transport --username hive --password hive --table jtxx --export-dir /hive/warehouse/hive.db/temptrans

使用以上导出命令会报如下错误:

  1. 15/04/21 19:38:52 INFO mapreduce.Job: Task Id : attempt_1428394594787_0010_m_000001_0, Status : FAILED
  2. Error: java.io.IOException: Can't export data, please check task tracker logs
  3. at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:112)
  4. at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:39)
  5. at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)
  6. at org.apache.sqoop.mapreduce.AutoProgressMapper.run(AutoProgressMapper.java:64)
  7. at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:763)
  8. at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339)
  9. at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162)
  10. at java.security.AccessController.doPrivileged(Native Method)
  11. at javax.security.auth.Subject.doAs(Subject.java:415)
  12. at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
  13. at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)
  14. Caused by: java.util.NoSuchElementException
  15. at java.util.ArrayList$Itr.next(ArrayList.java:834)
  16. at jtxx.__loadFromFields(jtxx.java:387)
  17. at jtxx.parse(jtxx.java:336)
  18. at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:83)
  19. ... 10 more

这个错误的原因是指定Hive中表字段之间使用的分隔符错误,供Sqoop读取解析不正确。如果是由hive执行mapreduce操作汇总的结果,默认的分隔符是 '\001',否则如果是从HDFS文件导入的则分隔符则应该是'\t'。此处我是hive执行mapreduce分析汇总的结果,所以默认的分隔是'\001'。Sqoop命令修改如下,指定分隔符:

  1. [hadoopUser@secondmgt ~]$ sqoop-export --connect jdbc:mysql://secondmgt:3306/transport --username hive --password hive --table jtxx --export-dir /hive/warehouse/hive.db/temptrans --input-fields-terminated-by '\001'

注意:

此处的Sqoop导出命令,当MySQL数据库中对应表为空,无数据的时候可以成功执行,但是当里面有数据,即从Hive表中需要导出的数据字段中,和MySQL表中关键字有重复的记录时候,进程会死住,不再往下执行,查看Hadoop任务界面出现内存被大部分占用,队列被占100%占用情况,如下:

  1. [hadoopUser@secondmgt ~]$ sqoop-export --connect jdbc:mysql://secondmgt:3306/transport --username hive --password hive --table jtxx --export-dir /hive/warehouse/hive.db/temptrans --input-fields-terminated-by '\001'
  2. Warning: /usr/lib/hcatalog does not exist! HCatalog jobs will fail.
  3. Please set $HCAT_HOME to the root of your HCatalog installation.
  4. 15/04/21 20:08:28 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
  5. 15/04/21 20:08:28 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset.
  6. 15/04/21 20:08:28 INFO tool.CodeGenTool: Beginning code generation
  7. 15/04/21 20:08:29 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `jtxx` AS t LIMIT 1
  8. 15/04/21 20:08:29 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `jtxx` AS t LIMIT 1
  9. 15/04/21 20:08:29 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0
  10. Note: /tmp/sqoop-hadoopUser/compile/67173774b957b511b4d62bc4ebe56e23/jtxx.java uses or overrides a deprecated API.
  11. Note: Recompile with -Xlint:deprecation for details.
  12. 15/04/21 20:08:30 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-hadoopUser/compile/67173774b957b511b4d62bc4ebe56e23/jtxx.jar
  13. 15/04/21 20:08:30 INFO mapreduce.ExportJobBase: Beginning export of jtxx
  14. 15/04/21 20:08:30 INFO Configuration.deprecation: mapred.job.tracker is deprecated. Instead, use mapreduce.jobtracker.address
  15. SLF4J: Class path contains multiple SLF4J bindings.
  16. SLF4J: Found binding in [jar:file:/home/hadoopUser/cloud/hadoop/programs/hadoop-2.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
  17. SLF4J: Found binding in [jar:file:/home/hadoopUser/cloud/hbase/hbase-0.96.2-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
  18. SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
  19. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
  20. 15/04/21 20:08:30 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
  21. 15/04/21 20:08:31 INFO Configuration.deprecation: mapred.reduce.tasks.speculative.execution is deprecated. Instead, use mapreduce.reduce.speculative
  22. 15/04/21 20:08:31 INFO Configuration.deprecation: mapred.map.tasks.speculative.execution is deprecated. Instead, use mapreduce.map.speculative
  23. 15/04/21 20:08:31 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
  24. 15/04/21 20:08:31 INFO client.RMProxy: Connecting to ResourceManager at secondmgt/192.168.2.133:8032
  25. 15/04/21 20:08:32 INFO input.FileInputFormat: Total input paths to process : 2
  26. 15/04/21 20:08:32 INFO input.FileInputFormat: Total input paths to process : 2
  27. 15/04/21 20:08:32 INFO mapreduce.JobSubmitter: number of splits:3
  28. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.job.classpath.files is deprecated. Instead, use mapreduce.job.classpath.files
  29. 15/04/21 20:08:32 INFO Configuration.deprecation: user.name is deprecated. Instead, use mapreduce.job.user.name
  30. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.cache.files.filesizes is deprecated. Instead, use mapreduce.job.cache.files.filesizes
  31. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.cache.files is deprecated. Instead, use mapreduce.job.cache.files
  32. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.reduce.tasks is deprecated. Instead, use mapreduce.job.reduces
  33. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.mapoutput.value.class is deprecated. Instead, use mapreduce.map.output.value.class
  34. 15/04/21 20:08:32 INFO Configuration.deprecation: mapreduce.map.class is deprecated. Instead, use mapreduce.job.map.class
  35. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.job.name is deprecated. Instead, use mapreduce.job.name
  36. 15/04/21 20:08:32 INFO Configuration.deprecation: mapreduce.inputformat.class is deprecated. Instead, use mapreduce.job.inputformat.class
  37. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.input.dir is deprecated. Instead, use mapreduce.input.fileinputformat.inputdir
  38. 15/04/21 20:08:32 INFO Configuration.deprecation: mapreduce.outputformat.class is deprecated. Instead, use mapreduce.job.outputformat.class
  39. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.cache.files.timestamps is deprecated. Instead, use mapreduce.job.cache.files.timestamps
  40. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.mapoutput.key.class is deprecated. Instead, use mapreduce.map.output.key.class
  41. 15/04/21 20:08:32 INFO Configuration.deprecation: mapred.working.dir is deprecated. Instead, use mapreduce.job.working.dir
  42. 15/04/21 20:08:32 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1428394594787_0016
  43. 15/04/21 20:08:33 INFO impl.YarnClientImpl: Submitted application application_1428394594787_0016 to ResourceManager at secondmgt/192.168.2.133:8032
  44. 15/04/21 20:08:33 INFO mapreduce.Job: The url to track the job: http://secondmgt:8088/proxy/application_1428394594787_0016/
  45. 15/04/21 20:08:33 INFO mapreduce.Job: Running job: job_1428394594787_0016

sqoop任务无法提交,一直处于以上状态无法继续执行,查看Hadoop任务界面,出现如下情况,队列被100%占用:

解决办法:

1、查看Hadoop正在运行的进程有哪些,hadoop job -list

2、杀死僵尸进程,hadoop job -kill [job-id]

3、修改Sqoop执行命令如下:

  1. sqoop-export --connect jdbc:mysql://secondmgt:3306/transport --username hive --password hive --table jtxx  --update-key clxxbh --
  2. update-mode allowinsert --export-dir /hive/warehouse/hive.db/temptrans  --input-fields-terminated-by '\001'

添加了两个参数:--update-key clxxbh    --update-mode allowinsert,前面一个表示如果后期导入的数据关键字和MySQL数据库中数据存在相同的,则更新该行记录,后一个表示将目标数据库中原来不存在的数据也导入到数据库表中,即存在的数据保留,新的数据插入,它后接另一个选项是updateonly,即只更新数据,不插入新数据。详细介绍,查看另外一篇博文(Sqoop1.4.4将文件数据集从HDFS中导出到MySQL数据库表中

将Hive统计分析结果导入到MySQL数据库表中(一)——Sqoop导入方式的更多相关文章

  1. Mysql数据库(表)的导出和导入小结

    Why? 有人因为想看导出的开房记录库文件,然后学会了Mysql数据库文件的导入操作~: 有人因为工作原因,要用到数据库的备份与导入,然后应需学会了骚操作~: 我因为~~emmm 想看某个导出的库文件 ...

  2. Mysql 数据库 表中列的操作

    [1]Mysql数据库中表的列操作 Mysql中关于表中列的操作集语句: -- [1]增加一列 ) DEFAULT NULL COMMENT '目的码区号'; -- [2]增加一列,在dnis_are ...

  3. MYSQL数据库表中字段追加字符串内容

    $sql="update parts set p_notes=concat(p_notes,'{$p_notes}') where p_id={$p_id}"; parts为表名 ...

  4. mysql数据库表中判断字段是否存在,如果不存在则创建该字段

    $key_answer = 'answer'.$question_num; $test_question = mysql_query('DESCRIBE question_manage {$key_q ...

  5. 【开发笔记】- 将MySQL数据库表中自增ID从0开始

    命令: 用于清空某表的数据 且让自增的id重新从0开始 truncate table 你的表名

  6. 将 Book-Crossing Dataset 书籍推荐算法中 CVS 格式测试数据集导入到MySQL数据库

    本文内容 最近看<写给程序员的数据挖掘指南>,研究推荐算法,书中的测试数据集是 Book-Crossing Dataset 提供的亚马逊用户对书籍评分的真实数据.推荐大家看本书,写得不错, ...

  7. 用 BigDump 工具导入超大 MySQL 数据库备份文件

    用 BigDump 工具导入超大 MySQL 数据库备份文件  创建于 2010-07-01, 周四 00:00  作者 白建鹏 在<Joomla! 1.5 网站防黑9条戒律>这篇文章中, ...

  8. mysqldump导入导出mysql数据库

    body{ font-family: "Microsoft YaHei UI","Microsoft YaHei",SimSun,"Segoe UI& ...

  9. 用JDBC把Excel中的数据导入到Mysql数据库中

    步骤:0.在Mysql数据库中先建好table 1.从Excel表格读数据 2.用JDBC连接Mysql数据库 3.把读出的数据导入到Mysql数据库的相应表中 其中,步骤0的table我是先在Mys ...

随机推荐

  1. 雷林鹏分享:JSP 开发环境搭建

    JSP 开发环境搭建 JSP开发环境是您用来开发.测试和运行JSP程序的地方. 本节将会带您搭建JSP开发环境,具体包括以下几个步骤. 配置Java开发工具(JDK) 这一步涉及Java SDK的下载 ...

  2. ultraedit开发使用技巧

    抛开Mybatis和Hibernate这些dao框架,如果维护老项目时或者不得不用sql拼接时,一个几百行的sql光是去掉navicat中查询的注释或者在sql前后加上双引号就已经很费劲,影响开发效率 ...

  3. DBMS_LOB的简单用法以及释放DBMS_LOB生成的临时CLOB内存

    dbms_lob包(一) dbms_lob包(二) 如何释放DBMS_LOB.CREATETEMPORARY的空间 Temporary LOB导致临时表空间暴满. oracle数据库中的大对象1——永 ...

  4. jQuery实现鼠标划过展示大图的方法

    这篇文章主要介绍了jQuery实现鼠标划过展示大图的方法,实例分析了jQuery操作鼠标事件及图片处理的技巧,具有一定参考借鉴价值,需要的朋友可以参考下 本文实例讲述了jQuery实现鼠标划过展示大图 ...

  5. Zynq软硬件协同设计 总结一

    1.Xilinx在2012年推出了新一代的开发工具Vivado开发套件,目前的7系列FPGA既可以用以往的ISE或者XPS进行开发,也可以使用Vivado(为瓦度),而6系列等以前的产品智能使用ISE ...

  6. 201621123006 《Java程序设计》第5周学习总结

    1. 本周学习总结 1.1 写出你认为本周学习中比较重要的知识点关键词. 继承.接口.抽象类.多态.interfac.comparable 1.2 尝试使用思维导图将这些关键词组织起来.注:思维导图一 ...

  7. 使用C++实现二叉搜索树的数据结构

    需要注意的地方: ①二叉搜索树删除一个指定结点R,若R为叶子结点,则将R的父结点中指向R的指针改为指向nullptr:若R的左右子结点一个为空,一个非空,则将R的父结点中指向R的指针改为指向R的非空子 ...

  8. HDU 4068

    http://acm.hdu.edu.cn/showproblem.php?pid=4068 暴力枚举两个全排列,犯了若干错误,以此为鉴 #include <iostream> #incl ...

  9. Python流程控制-while循环-for循环

    写重复代码 是可耻的行为 -------------- 完美的分割线  -------------- 摘录自:http://www.runoob.com/python/python-loops.htm ...

  10. Ubuntu下MySQL数据库文件 物理迁移后 出现的问题

    参考资料: https://www.cnblogs.com/advocate/archive/2013/11/19/3431606.html 本文要解决的一个问题是数据库文件进行物理迁移时遇到的问题. ...