大数据之Azkaban集群搭建基础任务完整使用(第二章)

大数据之Azkaban集群搭建基础任务完整使用(第二章),第1张

大数据之Azkaban集群搭建基础任务完整使用(第二章)

大数据之Azkaban 概论完整使用
  • 一 集群模式安装
    • 1 上传 tar 包
    • 1.2 配置 MySQL
    • 1.3 配置 Executor Server
      • 1)编辑 azkaban.properties
      • 2)同步 azkaban-exec 到所有节点
      • 3)必须进入到/opt/module/azkaban/azkaban-exec 路径,分别在三台机器上,启动 executor
      • 4)下面激活 executor,需要
    • 1.4 配置 Web Server
      • 1)编辑 azkaban.properties
      • 2)修改 azkaban-users.xml 文件,添加 atguigu 用户
      • 3)必须进入到 hadoop102 的/opt/module/azkaban/azkaban-web 路径,启动 web server
      • 4)访问 http://hadoop102:8081,并用 atguigu 用户登陆
  • 二、Work Flow 案例实 ***
    • 2.1 HelloWorld 案例
      • 1)在 windows 环境,新建 azkaban.project 文件,编辑内容如下
      • 2)新建 basic.flow 文件,内容如下
      • 3)将 azkaban.project、basic.flow 文件压缩到一个 zip 文件,文件名称必须是英文。
      • 4)在 WebServer 新建项目:http://hadoop102:8081/index
      • 5)给项目名称命名和添加项目描述
      • 6)first.zip 文件上传
      • 7)选择上传的文件
      • 8)执行任务流
      • 9)在日志中,查看运行结果
    • 2.2 作业依赖案例
      • 1)修改 basic.flow 为如下内容
      • 2)将修改后的 basic.flow 和 azkaban.project 压缩成 second.zip 文件
      • 3)重复 2.3.1 节 HelloWorld 后续步骤。
    • 2.3 自动失败重试案例
      • 1)编译配置流
      • 2)将修改后的 basic.flow 和 azkaban.project 压缩成 four.zip 文件
      • 3)重复 2.3.1 节 HelloWorld 后续步骤。
      • 4)执行并观察到一次失败+三次重试
      • 5)也可以点击上图中的 Log,在任务日志中看到,总共执行了 4 次。
      • 6)也可以在 Flow 全局配置中添加任务失败重试配置,此时重试配置会应用到所有 Job。
    • 2.4 手动失败重试案例
      • 1)编译配置流
      • 2)将修改后的 basic.flow 和 azkaban.project 压缩成 five.zip 文件
      • 3)重复 2.3.1 节 HelloWorld 后续步骤。
      • 4)可以根据需求选择性执行对应的任务。

一 集群模式安装 1 上传 tar 包

1)将 azkaban-db-3.84.4.tar.gz,azkaban-exec-server-3.84.4.tar.gz,azkaban-webserver-3.84.4.tar.gz 上传到 hadoop102 的/opt/software 路径

[hadoop@hadoop102 software]$ ll
总用量 35572
-rw-r--r--. 1 atguigu atguigu 6433 4 月 18 17:24 azkaban-db-
3.84.4.tar.gz
-rw-r--r--. 1 atguigu atguigu 16175002 4 月 18 17:26 azkaban-execserver-3.84.4.tar.gz
-rw-r--r--. 1 atguigu atguigu 20239974 4 月 18 17:26 azkaban-webserver-3.84.4.tar.gz

2)新建/opt/module/azkaban 目录,并将所有 tar 包解压到这个目录下

[hadoop@hadoop102 software]$ mkdir /opt/module/azkaban

3)解压 azkaban-db-3.84.4.tar.gz、 azkaban-exec-server-3.84.4.tar.gz 和 azkabanweb-server-3.84.4.tar.gz 到/opt/module/azkaban 目录下

[hadoop@hadoop102 software]$ tar -zxvf azkaban-db-3.84.4.tar.gz -
C /opt/module/azkaban/
[atguigu@hadoop102 software]$ tar -zxvf azkaban-exec-server-
3.84.4.tar.gz -C /opt/module/azkaban/
[atguigu@hadoop102 software]$ tar -zxvf azkaban-web-server-
3.84.4.tar.gz -C /opt/module/azkaban/

4)进入到/opt/module/azkaban 目录,依次修改名称

[hadoop@hadoop102 azkaban]$ mv azkaban-exec-server-3.84.4/ 
azkaban-exec
[atguigu@hadoop102 azkaban]$ mv azkaban-web-server-3.84.4/ 
azkaban-web
1.2 配置 MySQL

1)正常安装 MySQL
2)启动 MySQL

[atguigu@hadoop102 azkaban]$ mysql -uroot -p000000

3)登陆 MySQL,创建 Azkaban 数据库

mysql> create database azkaban;

4)创建 azkaban 用户并赋予权限

设置密码有效长度 4 位及以上
mysql> set global validate_password_length=4;

设置密码策略最低级别

mysql> set global validate_password_policy=0;

创建 Azkaban 用户,任何主机都可以访问 Azkaban,密码是 000000

mysql> CREATE USER 'azkaban'@'%' IDENTIFIED BY '000000';

赋予 Azkaban 用户增删改查权限

mysql> GRANT SELECT,INSERT,UPDATE,DELETE ON azkaban.* to 
'azkaban'@'%' WITH GRANT OPTION;

5)创建 Azkaban 表,完成后退出 MySQL

mysql> use azkaban;
mysql> source /opt/module/azkaban/azkaban-db-3.84.4/create-allsql-3.84.4.sql
mysql> quit;

6)更改 MySQL 包大小;防止 Azkaban 连接 MySQL 阻塞

[atguigu@hadoop102 software]$ sudo vim /etc/my.cnf

在[mysqld]下面加一行 max_allowed_packet=1024M

[mysqld]
max_allowed_packet=1024M

8)重启 MySQL

[atguigu@hadoop102 software]$ sudo systemctl restart mysqld
1.3 配置 Executor Server

Azkaban Executor Server 处理工作流和作业的实际执行

1)编辑 azkaban.properties

[atguigu@hadoop102 azkaban]$ vim /opt/module/azkaban/azkabanexec/conf/azkaban.properties

修改如下标红的属性

#...
default.timezone.id=Asia/Shanghai
#...
azkaban.webserver.url=http://hadoop102:8081
executor.port=12321
#...
database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=azkaban
mysql.password=000000
mysql.numconnections=100
2)同步 azkaban-exec 到所有节点
[atguigu@hadoop102 azkaban]$ xsync /opt/module/azkaban/azkabanexec
3)必须进入到/opt/module/azkaban/azkaban-exec 路径,分别在三台机器上,启动 executor
[atguigu@hadoop102 azkaban-exec]$ bin/start-exec.sh
[atguigu@hadoop103 azkaban-exec]$ bin/start-exec.sh
[atguigu@hadoop104 azkaban-exec]$ bin/start-exec.sh

注意:如果在/opt/module/azkaban/azkaban-exec 目录下出现 executor.port 文件,说明
启动成功

4)下面激活 executor,需要
[atguigu@hadoop102 azkaban-exec]$ curl -G "hadoop102:12321/executor?action=activate" && echo
[atguigu@hadoop103 azkaban-exec]$ curl -G "hadoop103:12321/executor?action=activate" && echo
[atguigu@hadoop104 azkaban-exec]$ curl -G "hadoop104:12321/executor?action=activate" && echo

如果三台机器都出现如下提示,则表示激活成功
{“status”:“success”}

1.4 配置 Web Server

Azkaban Web Server 处理项目管理,身份验证,计划和执行触发。

1)编辑 azkaban.properties
[atguigu@hadoop102 azkaban]$ vi /opt/module/azkaban/azkabanweb/conf/azkaban.properties

修改如下加粗属性

default.timezone.id=Asia/Shanghai
database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=azkaban
mysql.password=000000
mysql.numconnections=100
azkaban.executorselector.filters=StaticRemainingFlowSize,CpuStatus

说明:

StaticRemainingFlowSize:正在排队的任务数;
CpuStatus:CPU 占用情况`

MinimumFreeMemory:内存占用情况。测试环境,必须将 MinimumFreeMemory 删除掉,否则
它会认为集群资源不够,不执行。

2)修改 azkaban-users.xml 文件,添加 atguigu 用户
[atguigu@hadoop102 azkaban-web]$ vi /opt/module/azkaban/azkaban-web/conf/azkaban-users.xml

修改如下加粗属性

 
 
 
 
 

3)必须进入到 hadoop102 的/opt/module/azkaban/azkaban-web 路径,启动 web server
[atguigu@hadoop102 azkaban-web]$ bin/start-web.sh
4)访问 http://hadoop102:8081,并用 atguigu 用户登陆 二、Work Flow 案例实 *** 2.1 HelloWorld 案例 1)在 windows 环境,新建 azkaban.project 文件,编辑内容如下
azkaban-flow-version: 2.0

注意:该文件作用,是采用新的 Flow-API 方式解析 flow 文件。

2)新建 basic.flow 文件,内容如下
nodes:
 - name: jobA
   type: command
   config:
   command: echo "Hello World"

(1)Name:job 名称
(2)Type:job 类型。command 表示你要执行作业的方式为命令
(3)Config:job 配置

3)将 azkaban.project、basic.flow 文件压缩到一个 zip 文件,文件名称必须是英文。

4)在 WebServer 新建项目:http://hadoop102:8081/index

5)给项目名称命名和添加项目描述

6)first.zip 文件上传

7)选择上传的文件

8)执行任务流


9)在日志中,查看运行结果


2.2 作业依赖案例

需求:JobA 和 JobB 执行完了,才能执行 JobC
具体步骤:

1)修改 basic.flow 为如下内容
nodes:
 - name: jobC
   type: command
 # jobC 依赖 JobA 和 JobB
   dependsOn:
     - jobA
     - jobB
   config:
     command: echo "I’m JobC"
 - name: jobA
   type: command
   config:
     command: echo "I’m JobA"
 - name: jobB
   type: command
   config:
     command: echo "I’m JobB"
2)将修改后的 basic.flow 和 azkaban.project 压缩成 second.zip 文件

3)重复 2.3.1 节 HelloWorld 后续步骤。






2.3 自动失败重试案例

需求:如果执行任务失败,需要重试 3 次,重试的时间间隔 10000ms
具体步骤:

1)编译配置流
nodes:
 - name: JobA
   type: command
   config:
     command: sh /not_exists.sh
     retries: 3
     retry.backoff: 10000

参数说明:
retries:重试次数
retry.backoff:重试的时间间隔

2)将修改后的 basic.flow 和 azkaban.project 压缩成 four.zip 文件

3)重复 2.3.1 节 HelloWorld 后续步骤。



4)执行并观察到一次失败+三次重试

5)也可以点击上图中的 Log,在任务日志中看到,总共执行了 4 次。

6)也可以在 Flow 全局配置中添加任务失败重试配置,此时重试配置会应用到所有 Job。

案例如下:

config:
  retries: 3
  retry.backoff: 10000
nodes:
 - name: JobA
   type: command
   config:
     command: sh /not_exists.sh
2.4 手动失败重试案例

需求:JobA=》JobB(依赖于 A)=》JobC=》JobD=》JobE=》JobF。生产环境,任何 Job 都
有可能挂掉,可以根据需求执行想要执行的 Job。
具体步骤:

1)编译配置流
nodes:
  - name: JobA
    type: command
    config:
      command: echo "This is JobA."
 - name: JobB
    type: command
    dependsOn:
      - JobA
    config:
     command: echo "This is JobB."
 - name: JobC
   type: command
   dependsOn:
     - JobB
   config:
    command: echo "This is JobC."
 - name: JobD
   type: command
   dependsOn:
     - JobC
   config:
    command: echo "This is JobD."
 - name: JobE
   type: command
   dependsOn:
     - JobD
   config:
    command: echo "This is JobE."
 - name: JobF
   type: command
   dependsOn:
     - JobE
   config:
    command: echo "This is JobF."
2)将修改后的 basic.flow 和 azkaban.project 压缩成 five.zip 文件

3)重复 2.3.1 节 HelloWorld 后续步骤。




Enable 和 Disable 下面都分别有如下参数:
Parents:该作业的上一个任务
Ancestors:该作业前的所有任务
Children:该作业后的一个任务
Descendents:该作业后的所有任务
Enable All:所有的任务

4)可以根据需求选择性执行对应的任务。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5681724.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存