Storm 环境部署及简单使用

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介:

===> 什么是 Storm?

        --> Twitter将Storm正式开源了,这是一个分布式的、容错的实时计算系统,遵循 Eclipse Public License 1.0。

        --> Storm是由BackType开发的实时处理系统,BackType现在已在Twitter麾下。

        --> Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。

            Storm也可被用于“连续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用

            户。它还可被用于“分布式RPC”,以并行的方式运行昂贵的运算。 

        --> Storm的主工程师Nathan Marz表示:Storm可以方便地在一个计算机集群中编写与扩展复杂的实时计算,

               Storm用于实时处理,就好比 Hadoop 用于批处理。

               Storm保证每个消息都会得到处理,而且它很快——在一个小集群中,每秒可以处理数以百万计的消息。更棒的是你可以使用

                任意编程语言来做开发

===> Storm 支持离线计算和流式计算

        --> 离线计算:批量获取数据,批量传输数据,周期性比量计算数据,数据展示(Sqoop-->HDFS--> MR ---> HDFS)

            --- 代表技术:

                    -- Sqoop 批量导入数据

                    -- HDFS 批量存储数据

                    -- MapReduce 批量计算

                    -- Hive

        --> 流式计算:数据实时产生,数据实时传输,数据实时计算,实时展示(Flume ---> Kafka ---> 流式计算 ---> Redis)

            --- 代表技术:

                    -- Flume 实时获取数据

                    -- Kafka/metaq 实时数据存储

                    -- Storm/JStorm 实时数据计算

                    -- Redis 实时结果缓存,持久化存储(MySQL)

===> Storm 与 Hadoop 的区别

        --> 

Storm Hadoop
用于实时计算 用于离线计算
处理的数据保存在内存中,连连不断 处理的数据保存在文件系统中
数据通过网络传输进来 从 HDFS 平台获取数据


===> Storm 体系结构

image.png


===> Storm 运行流程

image.png

        --> Storm 结构中各部分职责:

            --- Nimbus: 

                    负责资源分配和任务调度

            --- Supervisor

            负责接受 Nimbus 分配的任务,启动和停止属于自己管理的 worker 进程

                  (*)可通过配置文件设置当前 supervisor 上启动几个 worker 进程

            --- Worker:

                    运行具体处理 组件逻辑 ,任务类型有两种:

                    -- Spout任务

                    -- Bolt 任务

            --- Executor: 

                        Storm 0.8 之后, Executor 为 Worker 进程中的具体的物理线程,同一个 Spout/Bolt的 Task可能会共享一个物理线程,一个 Executor 中只能运行隶属于同一个 Spout/Bolt 的 Task

            --- Task: 

                    worker 中每一个 spout/bolt 的线程称为一个 task, 在 storm0.8 之后, task 不再与物理线程对应,不同 spout/bolt 的 task 可能会共享一个物理线程,该 线程称为 executor


===> Strom 伪分布式安装部署

        --> 安装前需要部署 Zookeeper 环境,参见:http://blog.51cto.com/songqinglong/2062909 

        --> 解压:

1
         tar zxf apache - storm - 1.0 . 3.tar .gz  - / app


        --> 配置环境变量

1
2
3
4
5
6
         vim  ~ / .bash_profile
         # storm_home
         STORM_HOME = / app / apache - storm - 1.0 . 3
         export STORM_HOME
         PATH = $STORM_HOME / bin :$PATH
         export PATH


        --> 修改配置文件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
        vim $STORM_HOME / conf / storm.yaml 
          # 此处指定 zookeeper 节点           
          storm.zookeeper.servers:
                 -  "192.168.10.210"
         
          # nimbus.seeds: ["host1", "host2", "host3"]
          # 此处指定 nimbus 节点
          nimbus.seeds: [ "192.168.10.210" ]
          # 每个从节点上的worker个数
          supervisor.slots:ports:
             -  6700
             -  6701
             -  6702
             -  6703
         
          # 开启任务 Debug 功能
          "topology.eventlogger.executors" 1
          # 任务上传后,保存的目录
          storm.local. dir "/data/storm_data"


        --> 启动Storm

            --- 伪分部模式:

1
2
3
4
       storm nimbus &            
       storm ui &       # 可以通过 http 的方式查看:http://ip:8080
       storm supervisor &
       storm logviewer &

            --- 完全分部式:

                    -- 主节点

1
2
3
         storm nimbus &
         storm ui &
         storm logviewer &

                    -- 从节点

1
2
         storm supervisor    
         storm logviewer

        --> 查看:  http://ip:8080

===> Strom 完全分布式安装部署

        --> 安装方式与伪分布式基本相同,只需要将安装目录copy 到其它节点上即可

===> Storm HA

        --> 只需修改storm.yaml 文件中的 nimbus.seeds: ["bigdata1"] ,将主机加入到此列表中,并在主机上启动 nimbus 即可


===> Storm 常用命令 

        --> 提交任务

            --- 格式:storm jar    ***.jar   [Toplogy名字:类名字]   别名

            --- 示例:

1
       storm jar storm - starter - topologies - 1.0 . 3.jar  org.apache.storm.starter.WordCountTopology MyWordCountExample


        --> 杀死任务

            --- 格式:storm  kill  任务名称   -w  10    注: -w  等待秒数

            --- 示例:

1
       storm kill MyWordCountExample   - w   10

        --> 停用任务

            --- 格式:storm deactivte 任务名称

            --- 示例:

1
       storm deactivte  MyWordCountExample

            --- 格式:storm activate 任务名称

            --- 示例:

1
       storm activate MyWordCountExample


        --> 重新部署任务

            --- 格式:storm rebalance 任务名称

            --- 示例:

1
       storm rebalance MyWordCountExample

            --- (*) 当集群有所变动,此命令将会信用拓扑,然后在相应的超时时间内重启拓扑,重新分配任务

===> Storm 中 WordCount 程序流程分析

        --> 通过查看 Storm  UI 上每个组件的events 链接,可以查看 Storm 的每个组件(spout/blot)发送的消息

        --> 需要开启 Debug 功能,在配置文件中添加下列参数并重新启动 storm 

1
             "topology.eventlogger.executors" 1


        -->

 image.png

===> Storm 编程模型

image.png


        --> Topology: Storm 中运行的一个实时应用程序的名称

        --> Spout: 在一个topology 中获取源数据流,然后转换为 topology 的内部源数据

        --> Bolt: 接受数据然后执行处理,用户可以在其中执行自己想要的操作

        --> Tuple: 一次消息传递的基本单元

        --> Stream: 表示数据的流向

        --> StreamGroup: 数据分组策略

            --- Shuffle Grouping随机分组,尽量均匀的分布到下游 Bolt 中

            --- Fields Grouping: 按字段分组,按数据中 field 值进行分组, 相同 field 值的 Tuple 被发送到相同的Task

            --- All grouping: 广播

            --- Global grouping: 全局分组, Tuple 被分配到一个 Bolt 中的同一个Task 中,实现事物性的 Topology

            ---  None grouping: 不分组

            --- Direct grouping: 直接分组,指定分组


===> Storm 集群在 Zookeeper 中保存的数据结构

image.png

===> Strom 任务提交


image.png

本文转自   tianshuai369   51CTO博客,原文链接:http://blog.51cto.com/songqinglong/2067815


相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
前端开发 Java Unix
【NiFi】(二)三分钟搞定 NiFi 安装与简单使用!
【NiFi】(二)三分钟搞定 NiFi 安装与简单使用!
1875 0
【NiFi】(二)三分钟搞定 NiFi 安装与简单使用!
|
4月前
|
数据采集 物联网 大数据
NiFi【部署 01】NiFi最新版本1.18.0下载安装配置启动及问题处理(一篇学会部署NiFi)
NiFi【部署 01】NiFi最新版本1.18.0下载安装配置启动及问题处理(一篇学会部署NiFi)
187 0
|
流计算 资源调度 Java
Apache Flink 零基础入门(二):开发环境搭建和应用的配置、部署及运行
本文主要面向于初次接触 Flink、或者对 Flink 有了解但是没有实际操作过的同学。希望帮助大家更顺利地上手使用 Flink,并着手相关开发调试工作。
Apache Flink 零基础入门(二):开发环境搭建和应用的配置、部署及运行
|
5月前
|
JSON Java Linux
分布式系列教程(41) -Logtash的简单使用
分布式系列教程(41) -Logtash的简单使用
34 0
|
7月前
|
Java Apache 开发工具
Flink 源码阅读环境搭建
阅读优秀的源码是提升我们代码技能最重要的手段之一,工欲善其事必先利其器,所以,搭建好源码阅读环境是我们阅读的第一步。
|
8月前
|
消息中间件 Java Kafka
Kafka集群环境搭建及基本使用
Kafka集群环境搭建及基本使用
102 0
|
9月前
|
数据可视化 Java Linux
手把手教你安装Zookeeper 及可视化插件ZooInspector、ZKUI
手把手教你安装Zookeeper 及可视化插件ZooInspector、ZKUI
406 0
|
消息中间件 运维 数据可视化
【Kafka】基于Windows环境的Kafka有关环境(scala+zookeeper+kafka+可视化工具)搭建、以及使用.NET环境开发的案例代码与演示
基于Windows系统下的Kafka环境搭建;以及使用.NET 6环境进行开发简单的生产者与消费者的演示。
384 0
【Kafka】基于Windows环境的Kafka有关环境(scala+zookeeper+kafka+可视化工具)搭建、以及使用.NET环境开发的案例代码与演示
|
存储 资源调度 程序员
Flink on Yarn三部曲之二:部署和设置
本文是《Flink on Yarn三部曲》系列的第二篇,前面已经为部署做好了准备,现在可以一起来部署和启动Yarn环境了
209 0
Flink on Yarn三部曲之二:部署和设置
|
Java Linux Scala
将 Akka 项目打包分布式部署 | 学习笔记
快速学习将 Akka 项目打包分布式部署
161 0
将 Akka 项目打包分布式部署 | 学习笔记