任意可以使用expdp/impdp的环境,都可以通过help=y看到帮助文档。


expdp/impdp和exp/imp的区别

1、exp和imp是客户端工具程序,它们既可以在客户端使用,也可以在服务端使用。

2、expdp和impdp是服务端的工具程序,他们只能在oracle服务端使用,不能在客户端使用。意味着数据无法从远程oracle导出到本地文件系统

3、imp只适用于exp导出的文件,不适用于expdp导出文件;impdp只适用于expdp导出的文件,而不适用于exp导出文件。

4、对于10g以上的服务器,使用exp通常不能导出0行数据的空表,而此时必须使用expdp导出。

1.expdp参数说明

  1. [oracle@OEL-ASM ~]$ expdp help=y
  2.  
  3. Export: Release 11.2.0.3.0 - Production on Thu Sep 4 11:43:39 2014
  4.  
  5. Copyright (c) 1982, 2011, Oracle and/or its affiliates. All rights reserved.
  6.  
  7. The Data Pump export utility provides a mechanism for transferring data objects
  8. between Oracle databases. The utility is invoked with the following command:
  9.  
  10. Example: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  11.  
  12. You can control how Export runs by entering the 'expdp' command followed
  13. by various parameters. To specify parameters, you use keywords:
  14.  
  15. Format: expdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
  16. Example: expdp scott/tiger DUMPFILE=scott.dmp DIRECTORY=dmpdir SCHEMAS=scott
  17. or TABLES=(T1:P1,T1:P2), if T1 is partitioned table
  18.  
  19. USERID must be the first parameter on the command line.
  20.  
  21. ------------------------------------------------------------------------------
  22.  
  23. The available keywords and their descriptions follow. Default values are listed within square brackets.
  24.  
  25. ATTACH
  26. Attach to an existing job.
  27. For example, ATTACH=job_name.
  28.  
  29. CLUSTER
  30. Utilize cluster resources and distribute workers across the Oracle RAC.
  31. Valid keyword values are: [Y] and N.
  32.  
  33. COMPRESSION
  34. Reduce the size of a dump file.
  35. Valid keyword values are: ALL, DATA_ONLY, [METADATA_ONLY] and NONE.
  36.  
  37. CONTENT
  38. Specifies data to unload.
  39. Valid keyword values are: [ALL], DATA_ONLY and METADATA_ONLY.
  40.  
  41. DATA_OPTIONS
  42. Data layer option flags.
  43. Valid keyword values are: XML_CLOBS.
  44.  
  45. DIRECTORY
  46. Directory object to be used for dump and log files.
  47.  
  48. DUMPFILE
  49. Specify list of destination dump file names [expdat.dmp].
  50. For example, DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp.
  51.  
  52. ENCRYPTION
  53. Encrypt part or all of a dump file.
  54. Valid keyword values are: ALL, DATA_ONLY, ENCRYPTED_COLUMNS_ONLY, METADATA_ONLY and NONE.
  55.  
  56. ENCRYPTION_ALGORITHM
  57. Specify how encryption should be done.
  58. Valid keyword values are: [AES128], AES192 and AES256.
  59.  
  60. ENCRYPTION_MODE
  61. Method of generating encryption key.
  62. Valid keyword values are: DUAL, PASSWORD and [TRANSPARENT].
  63.  
  64. ENCRYPTION_PASSWORD
  65. Password key for creating encrypted data within a dump file.
  66.  
  67. ESTIMATE
  68. Calculate job estimates.
  69. Valid keyword values are: [BLOCKS] and STATISTICS.
  70.  
  71. ESTIMATE_ONLY
  72. Calculate job estimates without performing the export.
  73.  
  74. EXCLUDE
  75. Exclude specific object types.
  76. For example, EXCLUDE=SCHEMA:"='HR'".
  77.  
  78. FILESIZE
  79. Specify the size of each dump file in units of bytes.
  80.  
  81. FLASHBACK_SCN
  82. SCN used to reset session snapshot.
  83.  
  84. FLASHBACK_TIME
  85. Time used to find the closest corresponding SCN value.
  86.  
  87. FULL
  88. Export entire database [N].
  89.  
  90. HELP
  91. Display Help messages [N].
  92.  
  93. INCLUDE
  94. Include specific object types.
  95. For example, INCLUDE=TABLE_DATA.
  96.  
  97. JOB_NAME
  98. Name of export job to create.
  99.  
  100. LOGFILE
  101. Specify log file name [export.log].
  102.  
  103. NETWORK_LINK
  104. Name of remote database link to the source system.
  105.  
  106. NOLOGFILE
  107. Do not write log file [N].
  108.  
  109. PARALLEL
  110. Change the number of active workers for current job.
  111.  
  112. PARFILE
  113. Specify parameter file name.
  114.  
  115. QUERY
  116. Predicate clause used to export a subset of a table.
  117. For example, QUERY=employees:"WHERE department_id > 10".
  118.  
  119. REMAP_DATA
  120. Specify a data conversion function.
  121. For example, REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO.
  122.  
  123. REUSE_DUMPFILES
  124. Overwrite destination dump file if it exists [N].
  125.  
  126. SAMPLE
  127. Percentage of data to be exported.
  128.  
  129. SCHEMAS
  130. List of schemas to export [login schema].
  131.  
  132. SERVICE_NAME
  133. Name of an active Service and associated resource group to constrain Oracle RAC resources.
  134.  
  135. SOURCE_EDITION
  136. Edition to be used for extracting metadata.
  137.  
  138. STATUS
  139. Frequency (secs) job status is to be monitored where
  140. the default [0] will show new status when available.
  141.  
  142. TABLES
  143. Identifies a list of tables to export.
  144. For example, TABLES=HR.EMPLOYEES,SH.SALES:SALES_1995.
  145.  
  146. TABLESPACES
  147. Identifies a list of tablespaces to export.
  148.  
  149. TRANSPORTABLE
  150. Specify whether transportable method can be used.
  151. Valid keyword values are: ALWAYS and [NEVER].
  152.  
  153. TRANSPORT_FULL_CHECK
  154. Verify storage segments of all tables [N].
  155.  
  156. TRANSPORT_TABLESPACES
  157. List of tablespaces from which metadata will be unloaded.
  158.  
  159. VERSION
  160. Version of objects to export.
  161. Valid keyword values are: [COMPATIBLE], LATEST or any valid database version.
  162.  
  163. ------------------------------------------------------------------------------
  164.  
  165. The following commands are valid while in interactive mode.
  166. Note: abbreviations are allowed.
  167.  
  168. ADD_FILE
  169. Add dumpfile to dumpfile set.
  170.  
  171. CONTINUE_CLIENT
  172. Return to logging mode. Job will be restarted if idle.
  173.  
  174. EXIT_CLIENT
  175. Quit client session and leave job running.
  176.  
  177. FILESIZE
  178. Default filesize (bytes) for subsequent ADD_FILE commands.
  179.  
  180. HELP
  181. Summarize interactive commands.
  182.  
  183. KILL_JOB
  184. Detach and delete job.
  185.  
  186. PARALLEL
  187. Change the number of active workers for current job.
  188.  
  189. REUSE_DUMPFILES
  190. Overwrite destination dump file if it exists [N].
  191.  
  192. START_JOB
  193. Start or resume current job.
  194. Valid keyword values are: SKIP_CURRENT.
  195.  
  196. STATUS
  197. Frequency (secs) job status is to be monitored where
  198. the default [0] will show new status when available.
  199.  
  200. STOP_JOB
  201. Orderly shutdown of job execution and exits the client.
  202. Valid keyword values are: IMMEDIATE.

2.impdp参数说明

  1. [oracle@OEL-ASM ~]$ impdp help=y
  2.  
  3. Import: Release 11.2.0.3.0 - Production on Thu Sep 4 11:44:31 2014
  4.  
  5. Copyright (c) 1982, 2011, Oracle and/or its affiliates. All rights reserved.
  6.  
  7. The Data Pump Import utility provides a mechanism for transferring data objects
  8. between Oracle databases. The utility is invoked with the following command:
  9.  
  10. Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  11.  
  12. You can control how Import runs by entering the 'impdp' command followed
  13. by various parameters. To specify parameters, you use keywords:
  14.  
  15. Format: impdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
  16. Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  17.  
  18. USERID must be the first parameter on the command line.
  19.  
  20. ------------------------------------------------------------------------------
  21.  
  22. The available keywords and their descriptions follow. Default values are listed within square brackets.
  23.  
  24. ATTACH
  25. Attach to an existing job.
  26. For example, ATTACH=job_name.
  27.  
  28. CLUSTER
  29. Utilize cluster resources and distribute workers across the Oracle RAC.
  30. Valid keyword values are: [Y] and N.
  31.  
  32. CONTENT
  33. Specifies data to load.
  34. Valid keywords are: [ALL], DATA_ONLY and METADATA_ONLY.
  35.  
  36. DATA_OPTIONS
  37. Data layer option flags.
  38. Valid keywords are: SKIP_CONSTRAINT_ERRORS.
  39.  
  40. DIRECTORY
  41. Directory object to be used for dump, log and SQL files.
  42.  
  43. DUMPFILE
  44. List of dump files to import from [expdat.dmp].
  45. For example, DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp.
  46.  
  47. ENCRYPTION_PASSWORD
  48. Password key for accessing encrypted data within a dump file.
  49. Not valid for network import jobs.
  50.  
  51. ESTIMATE
  52. Calculate job estimates.
  53. Valid keywords are: [BLOCKS] and STATISTICS.
  54.  
  55. EXCLUDE
  56. Exclude specific object types.
  57. For example, EXCLUDE=SCHEMA:"='HR'".
  58.  
  59. FLASHBACK_SCN
  60. SCN used to reset session snapshot.
  61.  
  62. FLASHBACK_TIME
  63. Time used to find the closest corresponding SCN value.
  64.  
  65. FULL
  66. Import everything from source [Y].
  67.  
  68. HELP
  69. Display help messages [N].
  70.  
  71. INCLUDE
  72. Include specific object types.
  73. For example, INCLUDE=TABLE_DATA.
  74.  
  75. JOB_NAME
  76. Name of import job to create.
  77.  
  78. LOGFILE
  79. Log file name [import.log].
  80.  
  81. NETWORK_LINK
  82. Name of remote database link to the source system.
  83.  
  84. NOLOGFILE
  85. Do not write log file [N].
  86.  
  87. PARALLEL
  88. Change the number of active workers for current job.
  89.  
  90. PARFILE
  91. Specify parameter file.
  92.  
  93. PARTITION_OPTIONS
  94. Specify how partitions should be transformed.
  95. Valid keywords are: DEPARTITION, MERGE and [NONE].
  96.  
  97. QUERY
  98. Predicate clause used to import a subset of a table.
  99. For example, QUERY=employees:"WHERE department_id > 10".
  100.  
  101. REMAP_DATA
  102. Specify a data conversion function.
  103. For example, REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO.
  104.  
  105. REMAP_DATAFILE
  106. Redefine data file references in all DDL statements.
  107.  
  108. REMAP_SCHEMA
  109. Objects from one schema are loaded into another schema.
  110.  
  111. REMAP_TABLE
  112. Table names are remapped to another table.
  113. For example, REMAP_TABLE=HR.EMPLOYEES:EMPS.
  114.  
  115. REMAP_TABLESPACE
  116. Tablespace objects are remapped to another tablespace.
  117.  
  118. REUSE_DATAFILES
  119. Tablespace will be initialized if it already exists [N].
  120.  
  121. SCHEMAS
  122. List of schemas to import.
  123.  
  124. SERVICE_NAME
  125. Name of an active Service and associated resource group to constrain Oracle RAC resources.
  126.  
  127. SKIP_UNUSABLE_INDEXES
  128. Skip indexes that were set to the Index Unusable state.
  129.  
  130. SOURCE_EDITION
  131. Edition to be used for extracting metadata.
  132.  
  133. SQLFILE
  134. Write all the SQL DDL to a specified file.
  135.  
  136. STATUS
  137. Frequency (secs) job status is to be monitored where
  138. the default [0] will show new status when available.
  139.  
  140. STREAMS_CONFIGURATION
  141. Enable the loading of Streams metadata
  142.  
  143. TABLE_EXISTS_ACTION
  144. Action to take if imported object already exists.
  145. Valid keywords are: APPEND, REPLACE, [SKIP] and TRUNCATE.
  146.  
  147. TABLES
  148. Identifies a list of tables to import.
  149. For example, TABLES=HR.EMPLOYEES,SH.SALES:SALES_1995.
  150.  
  151. TABLESPACES
  152. Identifies a list of tablespaces to import.
  153.  
  154. TARGET_EDITION
  155. Edition to be used for loading metadata.
  156.  
  157. TRANSFORM
  158. Metadata transform to apply to applicable objects.
  159. Valid keywords are: OID, PCTSPACE, SEGMENT_ATTRIBUTES and STORAGE.
  160.  
  161. TRANSPORTABLE
  162. Options for choosing transportable data movement.
  163. Valid keywords are: ALWAYS and [NEVER].
  164. Only valid in NETWORK_LINK mode import operations.
  165.  
  166. TRANSPORT_DATAFILES
  167. List of data files to be imported by transportable mode.
  168.  
  169. TRANSPORT_FULL_CHECK
  170. Verify storage segments of all tables [N].
  171.  
  172. TRANSPORT_TABLESPACES
  173. List of tablespaces from which metadata will be loaded.
  174. Only valid in NETWORK_LINK mode import operations.
  175.  
  176. VERSION
  177. Version of objects to import.
  178. Valid keywords are: [COMPATIBLE], LATEST or any valid database version.
  179. Only valid for NETWORK_LINK and SQLFILE.
  180.  
  181. ------------------------------------------------------------------------------
  182.  
  183. The following commands are valid while in interactive mode.
  184. Note: abbreviations are allowed.
  185.  
  186. CONTINUE_CLIENT
  187. Return to logging mode. Job will be restarted if idle.
  188.  
  189. EXIT_CLIENT
  190. Quit client session and leave job running.
  191.  
  192. HELP
  193. Summarize interactive commands.
  194.  
  195. KILL_JOB
  196. Detach and delete job.
  197.  
  198. PARALLEL
  199. Change the number of active workers for current job.
  200.  
  201. START_JOB
  202. Start or resume current job.
  203. Valid keywords are: SKIP_CURRENT.
  204.  
  205. STATUS
  206. Frequency (secs) job status is to be monitored where
  207. the default [0] will show new status when available.
  208.  
  209. STOP_JOB
  210. Orderly shutdown of job execution and exits the client.
  211. Valid keywords are: IMMEDIATE.

3.expdp参数说明(中文)

  1. C:\Users\Alfred>expdp help=y
  2.  
  3. Export: Release 11.2.0.1.0 - Production on 星期五 10 10 12:25:21 2014
  4.  
  5. Copyright (c) 1982, 2009, Oracle and/or its affiliates. All rights reserved.
  6.  
  7. 数据泵导出实用程序提供了一种用于在 Oracle 数据库之间传输
  8. 数据对象的机制。该实用程序可以使用以下命令进行调用:
  9.  
  10. 示例: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  11.  
  12. 您可以控制导出的运行方式。具体方法是: 'expdp' 命令后输入
  13. 各种参数。要指定各参数, 请使用关键字:
  14.  
  15. 格式: expdp KEYWORD=value KEYWORD=(value1,value2,...,valueN)
  16. 示例: expdp scott/tiger DUMPFILE=scott.dmp DIRECTORY=dmpdir SCHEMAS=scott
  17. TABLES=(T1:P1,T1:P2), 如果 T1 是分区表
  18.  
  19. USERID 必须是命令行中的第一个参数。
  20.  
  21. ------------------------------------------------------------------------------
  22.  
  23. 以下是可用关键字和它们的说明。方括号中列出的是默认值。
  24.  
  25. ATTACH
  26. 连接到现有作业。
  27. 例如, ATTACH=job_name
  28.  
  29. COMPRESSION
  30. 减少转储文件大小。
  31. 有效的关键字值为: ALL, DATA_ONLY, [METADATA_ONLY] NONE
  32.  
  33. CONTENT
  34. 指定要卸载的数据。
  35. 有效的关键字值为: [ALL], DATA_ONLY METADATA_ONLY
  36.  
  37. DATA_OPTIONS
  38. 数据层选项标记。
  39. 有效的关键字值为: XML_CLOBS
  40.  
  41. DIRECTORY
  42. 用于转储文件和日志文件的目录对象。
  43.  
  44. DUMPFILE
  45. 指定目标转储文件名的列表 [expdat.dmp]。
  46. 例如, DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp
  47.  
  48. ENCRYPTION
  49. 加密某个转储文件的一部分或全部。
  50. 有效的关键字值为: ALL, DATA_ONLY, ENCRYPTED_COLUMNS_ONLY, METADATA_ONLY NONE
  51.  
  52. ENCRYPTION_ALGORITHM
  53. 指定加密的方式。
  54. 有效的关键字值为: [AES128], AES192 AES256
  55.  
  56. ENCRYPTION_MODE
  57. 生成加密密钥的方法。
  58. 有效的关键字值为: DUAL, PASSWORD [TRANSPARENT]。
  59.  
  60. ENCRYPTION_PASSWORD
  61. 用于在转储文件中创建加密数据的口令密钥。
  62.  
  63. ESTIMATE
  64. 计算作业估计值。
  65. 有效的关键字值为: [BLOCKS] STATISTICS
  66.  
  67. ESTIMATE_ONLY
  68. 计算作业估计值而不执行导出。
  69.  
  70. EXCLUDE
  71. 排除特定对象类型。
  72. 例如, EXCLUDE=SCHEMA:"='HR'"
  73.  
  74. FILESIZE
  75. 以字节为单位指定每个转储文件的大小。
  76.  
  77. FLASHBACK_SCN
  78. 用于重置会话快照的 SCN
  79.  
  80. FLASHBACK_TIME
  81. 用于查找最接近的相应 SCN 值的时间。
  82.  
  83. FULL
  84. 导出整个数据库 [N]。
  85.  
  86. HELP
  87. 显示帮助消息 [N]。
  88.  
  89. INCLUDE
  90. 包括特定对象类型。
  91. 例如, INCLUDE=TABLE_DATA
  92.  
  93. JOB_NAME
  94. 要创建的导出作业的名称。
  95.  
  96. LOGFILE
  97. 指定日志文件名 [export.log]。
  98.  
  99. NETWORK_LINK
  100. 源系统的远程数据库链接的名称。
  101.  
  102. NOLOGFILE
  103. 不写入日志文件 [N]。
  104.  
  105. PARALLEL
  106. 更改当前作业的活动 worker 的数量。
  107.  
  108. PARFILE
  109. 指定参数文件名。
  110.  
  111. QUERY
  112. 用于导出表的子集的谓词子句。
  113. 例如, QUERY=employees:"WHERE department_id > 10"
  114.  
  115. REMAP_DATA
  116. 指定数据转换函数。
  117. 例如, REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO
  118.  
  119. REUSE_DUMPFILES
  120. 覆盖目标转储文件 (如果文件存在) [N]。
  121.  
  122. SAMPLE
  123. 要导出的数据的百分比。
  124.  
  125. SCHEMAS
  126. 要导出的方案的列表 [登录方案]。
  127.  
  128. SOURCE_EDITION
  129. 用于提取元数据的版本。
  130.  
  131. STATUS
  132. 监视作业状态的频率, 其中
  133. 默认值 [0] 表示只要有新状态可用, 就立即显示新状态。
  134.  
  135. TABLES
  136. 标识要导出的表的列表。
  137. 例如, TABLES=HR.EMPLOYEES,SH.SALES:SALES_1995
  138.  
  139. TABLESPACES
  140. 标识要导出的表空间的列表。
  141.  
  142. TRANSPORTABLE
  143. 指定是否可以使用可传输方法。
  144. 有效的关键字值为: ALWAYS [NEVER]。
  145.  
  146. TRANSPORT_FULL_CHECK
  147. 验证所有表的存储段 [N]。
  148.  
  149. TRANSPORT_TABLESPACES
  150. 要从中卸载元数据的表空间的列表。
  151.  
  152. VERSION
  153. 要导出的对象版本。
  154. 有效的关键字值为: [COMPATIBLE], LATEST 或任何有效的数据库版本。
  155.  
  156. ------------------------------------------------------------------------------
  157.  
  158. 下列命令在交互模式下有效。
  159. 注: 允许使用缩写。
  160.  
  161. ADD_FILE
  162. 将转储文件添加到转储文件集。
  163.  
  164. CONTINUE_CLIENT
  165. 返回到事件记录模式。如果处于空闲状态, 将重新启动作业。
  166.  
  167. EXIT_CLIENT
  168. 退出客户机会话并使作业保持运行状态。
  169.  
  170. FILESIZE
  171. 用于后续 ADD_FILE 命令的默认文件大小 (字节)。
  172.  
  173. HELP
  174. 汇总交互命令。
  175.  
  176. KILL_JOB
  177. 分离并删除作业。
  178.  
  179. PARALLEL
  180. 更改当前作业的活动 worker 的数量。
  181.  
  182. REUSE_DUMPFILES
  183. 覆盖目标转储文件 (如果文件存在) [N]。
  184.  
  185. START_JOB
  186. 启动或恢复当前作业。
  187. 有效的关键字值为: SKIP_CURRENT
  188.  
  189. STATUS
  190. 监视作业状态的频率, 其中
  191. 默认值 [0] 表示只要有新状态可用, 就立即显示新状态。
  192.  
  193. STOP_JOB
  194. 按顺序关闭作业执行并退出客户机。
  195. 有效的关键字值为: IMMEDIATE

4.impdp参数说明(中文)

  1. C:\Users\Alfred>impdp help=y
  2.  
  3. Import: Release 11.2.0.1.0 - Production on 星期五 10 10 23:44:16 2014
  4.  
  5. Copyright (c) 1982, 2009, Oracle and/or its affiliates. All rights reserved.
  6.  
  7. 数据泵导入实用程序提供了一种用于在 Oracle 数据库之间传输
  8. 数据对象的机制。该实用程序可以使用以下命令进行调用:
  9.  
  10. 示例: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  11.  
  12. 您可以控制导入的运行方式。具体方法是: 'impdp' 命令后输入
  13. 各种参数。要指定各参数, 请使用关键字:
  14.  
  15. 格式: impdp KEYWORD=value KEYWORD=(value1,value2,...,valueN)
  16. 示例: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  17.  
  18. USERID 必须是命令行中的第一个参数。
  19.  
  20. ------------------------------------------------------------------------------
  21.  
  22. 以下是可用关键字和它们的说明。方括号中列出的是默认值。
  23.  
  24. ATTACH
  25. 连接到现有作业。
  26. 例如, ATTACH=job_name
  27.  
  28. CONTENT
  29. 指定要加载的数据。
  30. 有效的关键字为: [ALL], DATA_ONLY METADATA_ONLY
  31.  
  32. DATA_OPTIONS
  33. 数据层选项标记。
  34. 有效的关键字为: SKIP_CONSTRAINT_ERRORS
  35.  
  36. DIRECTORY
  37. 用于转储文件, 日志文件和 SQL 文件的目录对象。
  38.  
  39. DUMPFILE
  40. 要从中导入的转储文件的列表 [expdat.dmp]。
  41. 例如, DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp
  42.  
  43. ENCRYPTION_PASSWORD
  44. 用于访问转储文件中的加密数据的口令密钥。
  45. 对于网络导入作业无效。
  46.  
  47. ESTIMATE
  48. 计算作业估计值。
  49. 有效的关键字为: [BLOCKS] STATISTICS
  50.  
  51. EXCLUDE
  52. 排除特定对象类型。
  53. 例如, EXCLUDE=SCHEMA:"='HR'"
  54.  
  55. FLASHBACK_SCN
  56. 用于重置会话快照的 SCN
  57.  
  58. FLASHBACK_TIME
  59. 用于查找最接近的相应 SCN 值的时间。
  60.  
  61. FULL
  62. 导入源中的所有对象 [Y]。
  63.  
  64. HELP
  65. 显示帮助消息 [N]。
  66.  
  67. INCLUDE
  68. 包括特定对象类型。
  69. 例如, INCLUDE=TABLE_DATA
  70.  
  71. JOB_NAME
  72. 要创建的导入作业的名称。
  73.  
  74. LOGFILE
  75. 日志文件名 [import.log]。
  76.  
  77. NETWORK_LINK
  78. 源系统的远程数据库链接的名称。
  79.  
  80. NOLOGFILE
  81. 不写入日志文件 [N]。
  82.  
  83. PARALLEL
  84. 更改当前作业的活动 worker 的数量。
  85.  
  86. PARFILE
  87. 指定参数文件。
  88.  
  89. PARTITION_OPTIONS
  90. 指定应如何转换分区。
  91. 有效的关键字为: DEPARTITION, MERGE [NONE]。
  92.  
  93. QUERY
  94. 用于导入表的子集的谓词子句。
  95. 例如, QUERY=employees:"WHERE department_id > 10"
  96.  
  97. REMAP_DATA
  98. 指定数据转换函数。
  99. 例如, REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO
  100.  
  101. REMAP_DATAFILE
  102. 在所有 DDL 语句中重新定义数据文件引用。
  103.  
  104. REMAP_SCHEMA
  105. 将一个方案中的对象加载到另一个方案。
  106.  
  107. REMAP_TABLE
  108. 将表名重新映射到另一个表。
  109. 例如, REMAP_TABLE=EMP.EMPNO:REMAPPKG.EMPNO
  110.  
  111. REMAP_TABLESPACE
  112. 将表空间对象重新映射到另一个表空间。
  113.  
  114. REUSE_DATAFILES
  115. 如果表空间已存在, 则将其初始化 [N]。
  116.  
  117. SCHEMAS
  118. 要导入的方案的列表。
  119.  
  120. SKIP_UNUSABLE_INDEXES
  121. 跳过设置为“索引不可用”状态的索引。
  122.  
  123. SOURCE_EDITION
  124. 用于提取元数据的版本。
  125.  
  126. SQLFILE
  127. 将所有的 SQL DDL 写入指定的文件。
  128.  
  129. STATUS
  130. 监视作业状态的频率, 其中
  131. 默认值 [0] 表示只要有新状态可用, 就立即显示新状态。
  132.  
  133. STREAMS_CONFIGURATION
  134. 启用流元数据的加载
  135.  
  136. TABLE_EXISTS_ACTION
  137. 导入对象已存在时执行的操作。
  138. 有效的关键字为: APPEND, REPLACE, [SKIP] TRUNCATE
  139.  
  140. TABLES
  141. 标识要导入的表的列表。
  142. 例如, TABLES=HR.EMPLOYEES,SH.SALES:SALES_1995
  143.  
  144. TABLESPACES
  145. 标识要导入的表空间的列表。
  146.  
  147. TARGET_EDITION
  148. 用于加载元数据的版本。
  149.  
  150. TRANSFORM
  151. 要应用于适用对象的元数据转换。
  152. 有效的关键字为: OID, PCTSPACE, SEGMENT_ATTRIBUTES STORAGE
  153.  
  154. TRANSPORTABLE
  155. 用于选择可传输数据移动的选项。
  156. 有效的关键字为: ALWAYS [NEVER]。
  157. 仅在 NETWORK_LINK 模式导入操作中有效。
  158.  
  159. TRANSPORT_DATAFILES
  160. 按可传输模式导入的数据文件的列表。
  161.  
  162. TRANSPORT_FULL_CHECK
  163. 验证所有表的存储段 [N]。
  164.  
  165. TRANSPORT_TABLESPACES
  166. 要从中加载元数据的表空间的列表。
  167. 仅在 NETWORK_LINK 模式导入操作中有效。
  168.  
  169. VERSION
  170. 要导入的对象的版本。
  171. 有效的关键字为: [COMPATIBLE], LATEST 或任何有效的数据库版本。
  172. 仅对 NETWORK_LINK SQLFILE 有效。
  173.  
  174. ------------------------------------------------------------------------------
  175.  
  176. 下列命令在交互模式下有效。
  177. 注: 允许使用缩写。
  178.  
  179. CONTINUE_CLIENT
  180. 返回到事件记录模式。如果处于空闲状态, 将重新启动作业。
  181.  
  182. EXIT_CLIENT
  183. 退出客户机会话并使作业保持运行状态。
  184.  
  185. HELP
  186. 汇总交互命令。
  187.  
  188. KILL_JOB
  189. 分离并删除作业。
  190.  
  191. PARALLEL
  192. 更改当前作业的活动 worker 的数量。
  193.  
  194. START_JOB
  195. 启动或恢复当前作业。
  196. 有效的关键字为: SKIP_CURRENT
  197.  
  198. STATUS
  199. 监视作业状态的频率, 其中
  200. 默认值 [0] 表示只要有新状态可用, 就立即显示新状态。
  201.  
  202. STOP_JOB
  203. 按顺序关闭作业执行并退出客户机。
  204. 有效的关键字为: IMMEDIATE

5.使用示例

expdp/impdp 详细参数解释的更多相关文章

  1. 传奇身上装备升级系列脚本,以及UPGRADEITEMEX 脚本的详细参数解释

    UPGRADEITEMEX 脚本的详细参数解释如下: UPGRADEITEMEX 物品位置(0-12) 属性位置(0-14) 成功机率(0-100) 点数机率(0-255) 是否破碎(0,1) 物品位 ...

  2. oracle 11g expdp impdp详细使用方法

    11G中有个新特性,当表无数据时,不分配segment,以节省空间 解决方法如下图: 二.oracle10g以后提供了expdp/impdp工具,同样可以解决此问题 1.导出expdp工具使用方法: ...

  3. HearthBuddy中_settings.txt的更详细参数解释

    https://tieba.baidu.com/p/5275382967 默认的配置不是很合理,花了点时间读了下silverfish(也就是兄弟用的AI)的代码后也尝试修改了些参数,有没有效果仁者见仁 ...

  4. ORACLE 数据泵 expdp/impdp

    ORACLE 数据泵 expdp/impdp 一.概念 Oracle Database 10g 引入了最新的数据泵(Data Dump)技术,数据泵导出导入 (EXPDP 和 IMPDP)的作用: 1 ...

  5. 通过expdp/impdp进行oracle数据库的备份恢复详细指导

    假定导出oracle数据库home目录为/opt/oracle,数据库用户为exp_user/test,导入用户为imp_user/test,给出如下样例,具体使用时根据实际情况修改路径及用户名/密码 ...

  6. expdp impdp 参数

    With the Partitioning, OLAP, Data Mining and Real Application Testing options启动 "BEMIS".&q ...

  7. expdp impdp 数据库导入导出命令具体解释

    一.创建逻辑文件夹,该命令不会在操作系统创建真正的文件夹.最好以system等管理员创建. create directory dpdata1 as 'd:\test\dump'; 二.查看管理理员文件 ...

  8. ORACLE expdp/impdp详解

    ORCALE10G提供了新的导入导出工具,数据泵.Oracle官方对此的形容是:Oracle DataPump technology enables Very High-Speed movement ...

  9. ORACLE expdp/impdp详解(转)

    ORCALE10G提供了新的导入导出工具,数据泵.Oracle官方对此的形容是:Oracle DataPump technology enables Very High-Speed movement ...

随机推荐

  1. git 常用的撤销操作

    git 开发时的使用流程,从同事那里学习的, 第一步,先建立一个新的分支,可以在GITLAB或通过命令git checkout -b newbranch 或通过IDE插件 第二步,让项目切换到该分支, ...

  2. C++ char float int string 之间的转换

    string str = "123"; string 转 int int i = atoi( str.c_str() ); string 转 float float f = ato ...

  3. centos升级vim

    vim7爆出严重安全漏洞,升级到vim8,过程如下: yum remove vim -y yum install ncurses-devel -y 如果失败,提示unknown host apt.sw ...

  4. netty8---自定义编码解码器

    package com.cn.codc; import org.jboss.netty.buffer.ChannelBuffer; import org.jboss.netty.channel.Cha ...

  5. 在Ubuntu中启动./jmeter-server报错Server failed to start: java.rmi.RemoteException: Cannot start. ranxf is a loopback address.解决方法

      执行失败错误信息: root@ranxf:/home/ranxf/apache-jmeter-3.1/bin# ./jmeter-server Writing log file to: /home ...

  6. python3_ftp文件传输

    Python中的ftplib模块 Python中默认安装的ftplib模块定义了FTP类,其中函数有限,可用来实现简单的ftp客户端,用于上传或下载文件 FTP的工作流程及基本操作可参考协议RFC95 ...

  7. JS正则表达式从入门到入土(9)—— test方法以及它的那些坑

    test方法 test方法介绍 RegExp.prototype.test(str) test方法用于测试字符串参数中是否存在匹配正则表达式模式的字符串 test方法的使用 let reg = /\w ...

  8. JS正则表达式从入门到入土(4)—— 预定义类与边界

    预定义类 正则表达式提供预定义类来匹配常见的字符类 字符 等价类 含义 . [^\r\n] 除了回车符和换行符以外的所有字符 \d [0-9] 数字字符 \D [^0-9] 非数字字符 \s [\t\ ...

  9. 一个UUID生成算法的C语言实现——WIN32版本

    源: 一个UUID生成算法的C语言实现——WIN32版本

  10. testng基础知识:注解的执行顺序

    1. 单类,无继承父子关系 code: public class basicTest { @BeforeSuite(alwaysRun = true) public void beforeSuite_ ...