数据对接—kettle使用之一

简介:

需求:

      你有没有遇到过不同数据库之间数据对接的需求,比如:mysql数据库里的数据要保存到oracle数据库里,或者是excel里的数据要保存到数据库里,或者是数据库的数据要定时的保存到文件中等等数据对接的问题。下面就开始介绍一款软件来帮助我们实现各种数据对接的问题,这将是一个系列的博客,这篇只是个开始,后面将陆续的通过实例来讲解软件如何使用,当然不可能面面俱到,很多功能还需要我们不断的挖掘和完善

工具介绍:

      说了这么多这个软件到底是什么呢?就是一个我们中文意思是水壶的英文单词kettle,当然它的原意不是这样的,它是“Kettle E.T.T.L. Envirnonment”只取首字母的缩写,这意味着它被设计用来帮助你实现你的ETTL需要:抽取、转换、装入和加载数据。Kettle也叫 PDI,在2006年 Kettle 加入了开源的 BI 组织 Pentaho, 正式命名为PDI,英文全称为Pentaho Data Integeration。这个工具也正如我们中文翻译为水壶那样,它希望把所有需要的数据放到一个水壶里,然后以流的方式流出来。

功能介绍:

      kettle可以创建两种脚本文件,一种是transformation(*.ktr),就是任务,比如抽取数据,合并修改后再存入数据库什么的。 另一种是job(*.kjb),就是用来调用transformation的,类似oracle里的job调用存储过程。如下面的图分别是transformation脚本和job脚本。


      上面两张图是两种脚本,通过第二种脚本调用第一种脚本我们可以配置定时任务,可以指定时间让系统自动执行数据抓取以及转换,是不是很强大的工具,不着急,后面才是真正的开始,看看它到底能有多大本事。

运行环境:

      要运行kettle工具必须安装Sun公司的JAVA运行环境,kettle 4.2.0需要运行java 1.6或者更高版本,Kettle的下载可以到http://kettle.pentaho.org/取得最新版本。目前应该是到kettle 4.4.0版本了,kettle不需要安装,安装好java环境后,在操作系统环境变量path中配置jre路径,把kettle工具压缩包解压后可直接使用,由于它是重java编写,所以它可以跨平台使用。

如何启动:

      Spoon是一个图形用户界面,它允许你运行转换或者任务,其中转换是用Pan工具来运行,任务是用Kitchen来运行。Pan是一个数据转换引擎,它可以执行很多功能,例如:从不同的数据源读取、操作和写入数据。Kitchen是一个可以运行利用XML或数据资源库描述的任务。通常任务是在规定的时间间隔内用批处理的模式自动运行。

      下面是在不同的平台上运行Spoon所支持的脚本:

         Spoon.bat:在windows 平台运行Spoon。

         Spoon.sh:在 Linux、Apple OSX、Solaris 平台运行 Spoon。

这篇就介绍到这里,下一篇我们进入实例讲解…

目录
相关文章
|
9月前
|
数据采集 SQL 分布式计算
数据处理 、大数据、数据抽取 ETL 工具 DataX 、Kettle、Sqoop
数据处理 、大数据、数据抽取 ETL 工具 DataX 、Kettle、Sqoop
992 0
|
SQL 分布式计算 Java
外部工具连接SaaS模式云数仓MaxCompute—ETL工具篇
本文主要讲解开源ETL工具如何连接MaxCompute
991 0
外部工具连接SaaS模式云数仓MaxCompute—ETL工具篇
|
存储 消息中间件 监控
|
分布式计算 关系型数据库 大数据
[ETL实践指南]基于Kettle的MaxCompute插件实现数据上云
本文用到的 阿里云数加-大数据计算服务MaxCompute产品地址:https://www.aliyun.com/product/odps 简介 Kettle是一款开源的ETL工具,纯java实现,可以运行于Windows, Unix, Linux上运行,提供图形化的操作界面,可以通过拖拽控件的方式,方便地定义数据传输的拓扑。
19967 0
|
存储 SQL 数据库连接