开源ETL工具Kettle初试–远程执行任务 – lxw的大数据田地

您所在的位置:网站首页 kettle循环执行子job 开源ETL工具Kettle初试–远程执行任务 – lxw的大数据田地

开源ETL工具Kettle初试–远程执行任务 – lxw的大数据田地

#开源ETL工具Kettle初试–远程执行任务 – lxw的大数据田地| 来源: 网络整理| 查看: 265

Kettle是一款国外开源的ETL以及简单的调度工具。 官网:http://www.pentaho.com/product/data-integration 之前Kettle在传统数据仓库中用的比较多,现在也集成了很多大数据相关的组件,比如:HDFS、MapReduce、HBase、Hive、Sqoop等。 这两天试验了一下,在此做一记录。

我使用的Kettle版本为最新的pdi-ce-7.0.0.0-25.zip,特别注意,该版本对jdk的要求比较高,之前系统上的jdk-8u65竟然也不行,后来用了最新的jdk-8u121才正常。

完成了一个简单的ETL过程: 从Oracle中抽取数据->写入HDFS->Load进Hive表。

因为我们的Linux服务器都没有图形化界面,并且我本机不能访问hadoop集群节点的内网ip(只能通过网关机访问),因此,需要进行下面的部署:

kettle

在Hadoop网关机(Linux)上启动Kettle远程服务,作为子服务器; 在我的机器(windows)上启动Kettle,作为主服务器,进行作业开发,执行时候,提交到子服务器进行远程执行。

配置Kettle远程服务

下载Kettle:

https://nchc.dl.sourceforge.net/project/pentaho/Data%20Integration/7.0/pdi-ce-7.0.0.0-25.zip

解压之后,编辑data-integration/plugins/pentaho-big-data-plugin/plugin.properties文件: 设置hadoop版本(我使用的cdh5.8):active.hadoop.configuration=cdh58

进入data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations/cdh58目录: 将hadoop的配置文件core-site.xml、mapred-site.xml、yarn-site.xml复制过来。

在Kettle远程服务器上(Linux): 进入data-integration目录,设置远程服务连接密码: sh encr.sh -carte yourpassword 结果会输出加密后的密码:OBF:1hvy1i271vny1zej1zer1vn41hzj1hrk

编辑密码文件:vi ./pwd/kettle.pwd cluster: OBF:1hvy1i271vny1zej1zer1vn41hzj1hrk 其中,cluster为默认的用户名。

然后启动远程服务: nohup ./carte.sh localhost 9888 >> carte.log &

端口号9888可以自己定义。

本地Kettle主服务器开发任务

本地windows解压Kettle之后,执行Spoon.bat启动Kettle。 执行SpoonConsole.bat打开图形界面。

文件->新建->转换:

kettle

在该转换中,需要配置2个DB链接(Oracle和HiveServer2),配置Hadoop集群(HDFS),配置子服务器(远程执行服务器)。 DB的配置很简单,略过。 新建子服务器:

kettle

新建Hadoop集群:注意,如果不使用MapReduce和ZK,那么只需要配置HDFS即可,Hostname为主NameNode的IP.

kettle

远程执行任务

开发完后,在执行的选项中,选择远程执行:

kettle

本地Kettle会连接到远程Kettle子服务器,将该作业配置信息发送给子服务器进行执行。

 

 

除了上述方法完成DBàHive的数据导入,Kettle也集成了Sqoop,应该也可以完成,后续再进行尝试:

kettle

 

 

如果觉得本博客对您有帮助,请 赞助作者 。

转载请注明:lxw的大数据田地 » 开源ETL工具Kettle初试–远程执行任务

喜欢 (35)分享 (0)


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3