数据ETL是指什么】的更多相关文章

ETL是数据抽取(Extract).清洗(Cleaning).转换(Transform).装载(Load)的过程.是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去.…
资料库的创建.体系结构的创建.模型反向工程都已经完成了,下面就是创建以及执行接口来完成工作了. 浏览前两节请点击: [ODI]| 数据ETL:从零开始使用Oracle ODI完成数据集成(一) [ODI]| 数据ETL:从零开始使用Oracle ODI完成数据集成(二) 8. 创建项目及接口 项目包含了开发人员所开发的所有对象,项目包含的元素有接口.过程.包.变量.用户定义函数等.项目创建完毕后,即可在项目下创建接口来实现数据集成. [设计器]>>[项目]>>[新建项目] 为项目自…
前一节已经完成了Oracle数据库和ODI的安装,并已经为ODI在Oracle数据库中创建了两个用户,分别用于存放主资料库数据和工作资料库数据,在ODI中完成主资料库和工作资料库的创建,也分别为其创建了登陆用户,最后,登陆到ODI的工作资料库中,在工作资料库中,我们就可以完成数据的集成工作了,下面是一个简单的数据集成工作场景,我们用ODI完成这项工作. 浏览前一节请点此:[ODI]| 数据ETL:从零开始使用Oracle ODI完成数据集成(一) 4. 工作场景说明 工作场景说明: 业务系统A使…
0. 环境说明及软件准备 ODI(Oracle Data Integrator)是Oracle公司提供的一种数据集成工具,能高效地实现批量数据的抽取.转换和加载.ODI可以实现当今大多数的主流关系型数据库(Oracle.DB2.SQL Server.MySQL.SyBase)的集成. ODI提供了图形化客户端和agent(代理)运行程序.客户端软件主要用于对整个数据集成服务的设计,包括创建对数据源的连接架构.创建模型及反向表结构.创建接口.生成方案和计划等.Agent运行程序是通过命令行方式在O…
一.创建一个mysql的link MySQL链接使用的是JDBC,必须有对应的驱动文件jar,还得有对应的访问权限,请确保能在server端访问MySQL.确保mysql的jar包已经导入到${SQOOP_HOME}/server/lib/目录下. create link -c generic-jdbc-connector 这时候就会出现交互会话,提示你输入各项参数: [Link configuration] Name:标示这个link的字符串.比如:mysql-link-1 Driver Cl…
摘要: 作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 业余时间调研了一下Kafka connect的配置和使用,记录一些自己的理解和心得,欢迎指正. 一.背景介绍 Kafka connect是Confluent公司(当时开发出Apache Kafka的核心团队成员出来创立的新公司)开发的confluent platform的核心功能. 大家都知道现在数据的ETL过程经常会选择kafka作为消息中间件应用在离线和实时的使用场景中,而kafk…
Etl目标  解析我们收集的日志数据,将解析后的数据保存到hbase中.这里选择hbase来存储数据的主要原因就是: hbase的宽表结构设计适合我们的这样多种数据格式的数据存储(不同event有不同的存储格式). 在etl过程中,我们需要将我们收集得到的数据进行处理,包括ip地址解析.userAgent解析.服务器时间解析等. 在我们本次项目中ip解析采用的是纯真ip数据库,官网是http://www.cz88.net/另外:ip解析可以采用淘宝提供的ip接口来进行解析 地址:http://i…
ETL是BI项目最重要的一个环节,通常情况下ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败.ETL也是一个长期的过程,只有不断的发现问题并解决问题,才能使ETL运行效率更高,为项目后期开发提供准确的数据. ETL的设计分三部分:数据抽取.数据的清洗转换.数据的加载.在设计ETL的时候也是从这三部分出发.数据的抽取是从各个不同的数据源抽取到ODS中(这个过程也可以做一些数据的清洗和转换),在抽取的过程中需要挑选不同的抽取方法,尽可能的提高ETL的运行效率.ETL三个部…
业务需求,如下面的: 现在用友总帐一家公司BI分析案例. /* Sql Server2012使用作业设置定时任务,为了保证有一天运行时间 */ /* 意temp1表里一定要保证要有记录,否则以temp1 来 left join就出现为空的情况. */ /* Step 1: 把全部的数据库列表都插入到BI数据库的DBLIST表里 */ USE BI; /* drop table BI.DBO.TEMP1; drop table BI.DBO.TEMP2; drop table BI.DBO.TEM…
简述如何评估大型ETL数据加载时间. 答:评估一个大型的ETL的数据加载时间是一件很复杂的事情.数据加载分为两类,一类是初次加载,另一类是增量加载. 在数据仓库正式投入使用时,需要进行一次初次加载,而这次初次加载需要的时间一般较难预料.在数据仓库的日常使用和维护中,每天需要对数据仓库进行增量加载.增量加载的数据量要比初次加载小很多. 下面以初次加载为例来谈谈如何评估大型ETL的数据加载时间. 对初次加载的加载时间进行预估,需要将整个ETL过程分成抽取.转换和加载三部分,分别对这三部分进行评估.…