OssImport系列之三——分布式部署

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: 介绍了OssImport分布式模式的部署、运行、常见问题排除等。

相关文章:OssImport系列之一——架构

下载

分布式部署目前只支持Linux,Windows暂不支持。

分布式版本下载地址 ossimport-2.2.1.tar.gz ,下载到本地后,使用命令 tar -zxvf ossimport-2.2.0.tar.gz -C $HOME/ossimport 解压,解压后的文件结构如下:

ossimport
├── bin
│   ├── console.jar     # Console模块jar包
│   ├── master.jar      # Master模块jar包
│   ├── tracker.jar     # Tracker模块jar包
│   └── worker.jar      # Worker模块jar包
├── conf
│   ├── job.cfg         # Job配置文件模板
│   ├── sys.properties  # 系统运行参数配置文件
│   └── workers         # Worker列表
├── console.sh          # 命令行工具,目前支持只Linux
├── logs                # 日志目录
└── README.md           # 说明文档,使用前请仔细阅读

注意

  • OSS_IMPORT_HOME:OssImport的根目录,默认为解压命令中的目录 $HOME/ossimport ,也可以通过命令 export OSS_IMPORT_HOME=<dir> 或修改系统配置文件 $HOME/.bashrc 设置,推荐使用默认目录;
  • OSS_IMPORT_WORK_DIR:OssImport的工作目录,通过 conf/sys.properties 的配置项 workingDir 指定,推荐为 $HOME/ossimport/workdir
  • OSS_IMPORT_HOMEOSS_IMPORT_WORK_DIR 请使用绝对路径配置,如 /home/<user>/ossimport/home/<user>/ossimport/workdir

配置

分布式部署有三个个配置文件conf/sys.propertiesconf/local_job.cfgconf/workers,配置项的含义请看 介绍 章节。

  • conf/job.cfg:分布式模式下任务的配置文件模板,数据迁移前请按照实际参数修改;
  • conf/sys.properties:系统运行参数配置文件,如工作目录、Worker运行参数等请在该文件中配置;
  • conf/workers:worker列表。

注意

  • 请在提交任务前确认 sys.propertieslocal_job.cfg 中的参数,任务提交后参数无法再修改;
  • Worker 列表 workers 请启动服务前确定,启动后无法再增加或删除。

运行

执行命令

分布式部署时,执行任务的一般步骤是 修改任务配置文件部署服务清除同名任务提交任务启动迁移服务查看任务状态重试失败子任务停止迁移任务 。详细说明如下:

  • 部署服务。执行Linux终端执行 bash console.sh deploy部署前请保证配置文件 conf/job.cfg、conf/workers 已经修改完成。
  • 清除同名任务。如果运行过同名任务,需要从新执行任务,请先清除同名任务。如果没有运行过,或需要重试失败任务,不需要执行清除命令。Linux终端中执行 bash console.sh clean job_name
  • 提交数据迁移任务。OssImport不能重复提交同名任务,如果有请请使用clean命令清除。提交任务需要指定任务的配置文件,任务的配置文件模板在 conf/job.cfg,建议在模板的基础上修改。Linux终端执行 bash console.sh submit [job_cfg_file],提交配置文件为 job_cfg_file 的任务,job_cfg_file 为可选参数,不指定是默认为 $OSS_IMPORT_HOME/conf/job.cfg$OSS_IMPORT_HOME 默认为 console.sh 所在的目录。
  • 启动服务。Linux终端执行 bash console.sh start
  • 查看任务状态。Linux终端执行 bash console.sh stat
  • 失败Task重试。由于网络或其它原因,Task可能运行失败。失败重试只重试失败的Task,成功的Task不会重试。Linux下在终端执行 bash console.sh retry [job_name]job_name 为可选参数,指定时重试任务job_name的失败子任务,不指定job_name时重试所有任务的失败子任务。
  • 停止服务。Linux终端执行 bash console.sh stop

提示

  • bash console.sh 在参数错误时,会自动提示命令格式;
  • 配置文件和提交任务中的目录,推荐使用绝对目录;
  • 任务的配置,即 job.cfg 中的配置项, 提交后不能修改,请在提交前确定。

常见任务失败原因

  • 上传过程中源目录的文件发生了修改,log/audit.log里会提示SIZE_NOT_MATCH相关字样的错误,这种情况下老的文件已经上传成功,新的修改没有上传到OSS;
  • 源文件在上传过程中被删除,导致下载的时候失败;
  • 源文件名不符合OSS命名规范(不能以/开头,不能为空),导致上传到OSS失败;
  • 下载数据源文件失败;
  • 程序异常退出,任务状态为 Abort ,这种情况请联系我们。

任务状态及日志

任务提交后,Master分解成Task,有Worker执行Task,Tracker收集Task状态。任务运行完成后workdir目录内容如下:

workdir
├── bin
│   ├── console.jar     # Console模块jar包
│   ├── master.jar      # Master模块jar包
│   ├── tracker.jar     # Tracker模块jar包
│   └── worker.jar      # Worker模块jar包
├── conf
│   ├── job.cfg         # Job配置文件模板
│   ├── sys.properties  # 系统运行参数配置文件
│   └── workers         # Worker列表
├── logs
│   ├── import.log      # 归档日志
│   ├── master.log      # Master日志
│   ├── tracker.log     # Tracker日志
│   └── worker.log      # Worker日志
├── master
│   ├── jobqueue                 # 存放尚未分解完成的任务
│   └── jobs                     # 存放任务运行状态
│       └── xxtooss              # 任务名称
│           ├── checkpoints      # Master分解Job到Task的checkpoint点记录
│           │   └── 0
│           │       └── ED09636A6EA24A292460866AFDD7A89A.cpt
│           ├── dispatched       # 已经分配给Worker尚未运行完成的Task
│           │   └── 192.168.1.6
│           ├── failed_tasks     # 运行失败的Task
│           │   └── A41506C07BF1DF2A3EDB4CE31756B93F_1499348973217@192.168.1.6
│           │       ├── audit.log     # Task运行日志,通过该日志可以查看错误原因
│           │       ├── DONE          # Task运行成功标志,失败为空
│           │       ├── error.list    # Task错误列表,可以查看错误文件列表
│           │       ├── STATUS        # 任务状态标志文件,内容为Failed或Completed,表示子任务失败或成功
│           │       └── TASK          # Task描述信息
│           ├── pending_tasks    # 尚未分配的Task
│           └── succeed_tasks    # 成功运行的Task
│               └── A41506C07BF1DF2A3EDB4CE31756B93F_1499668462358@192.168.1.6
│                   ├── audit.log    # Task运行日志,通过该日志可以查看错误原因
│                   ├── DONE         # Task运行成功标志
│                   ├── error.list   # Task错误列表,成功为空
│                   ├── STATUS       # 任务状态标志文件,内容为Failed或Completed,表示子任务失败或成功
│                   └── TASK         # Task描述信息
└── worker  # Worker正在运行的Task状态,运行完成后由Master管理
    └── jobs
        ├── local_test2
        │   └── tasks
        └── local_test_4
            └── tasks

提示

  • Job运行状态查看 logs/tracker.log ,Worker的运行日志查看 logs/worker.log,Master的运行日志查看 logs/master.log
  • Task的失败原因,可以查看master/jobs/${JobName}/failed_tasks/${TaskName}/audit.log
  • Task的失败文件,可以查看master/jobs/${JobName}/failed_tasks/${TaskName}/error.list

常见错误及排除

请参看 常见错误及排除

相关文章:OssImport系列之一——架构

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
目录
相关文章
|
1月前
|
Java 测试技术 Linux
jmeter-分布式部署之负载机的设置
jmeter-分布式部署之负载机的设置
46 1
|
4月前
|
关系型数据库 MySQL 网络安全
利用ansbile部署lamp并部署Discuz(非分布式)
利用ansbile部署lamp并部署Discuz(非分布式),实验准备,设置ansbile的hosts文件,在192.168.115.148上完成相关准备,编写roles,执行
53 0
|
6月前
|
Java 应用服务中间件 Linux
07分布式电商项目 - 管理中心的部署
07分布式电商项目 - 管理中心的部署
27 0
|
6月前
|
Dubbo Java 应用服务中间件
06分布式电商项目 - Dubbox 本地 JAR 包部署与安装
06分布式电商项目 - Dubbox 本地 JAR 包部署与安装
28 0
|
10天前
|
Docker 容器 关系型数据库
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
本期课程将于4月11日19:00开始直播,内容包括源码编译基础知识和实践操作,课程目标是使学员掌握源码编译部署技能,为未来发展奠定基础,期待大家在课程中取得丰富的学习成果!
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
|
3月前
|
数据库 OceanBase
OceanBase数据库是一个分布式集群产品,在部署时对硬件资源有特定的需求
OceanBase数据库是一个分布式集群产品,在部署时对硬件资源有特定的需求【1月更文挑战第12天】【1月更文挑战第56篇】
29 2
|
4月前
|
消息中间件 存储 Java
分布式实时消息队列Kafka(二)Kafka分布式集群部署
分布式实时消息队列Kafka(二)Kafka分布式集群部署
75 0
|
4月前
|
数据可视化 Linux 调度
DolphinScheduler【部署 01】分布式可视化工作流任务调度工具DolphinScheduler部署使用实例分享(一篇入门学会使用DolphinScheduler)
DolphinScheduler【部署 01】分布式可视化工作流任务调度工具DolphinScheduler部署使用实例分享(一篇入门学会使用DolphinScheduler)
178 0
|
4月前
|
监控 前端开发 应用服务中间件
Zabbix【部署 01】Zabbix企业级分布式监控系统部署配置使用实例(在线安装及问题处理)程序安装+数据库初始+前端配置+服务启动+Web登录
Zabbix【部署 01】Zabbix企业级分布式监控系统部署配置使用实例(在线安装及问题处理)程序安装+数据库初始+前端配置+服务启动+Web登录
411 0
|
4月前
|
Ubuntu 调度 数据安全/隐私保护
Docker部署开源分布式任务调度平台DolphinScheduler并实现远程访问办公
Docker部署开源分布式任务调度平台DolphinScheduler并实现远程访问办公