概述 基于Dataworks做大数据一站式开发,包含数据实时采集到kafka通过实时计算对数据进行ETL写入HDFS,使用Hive进行数据分析。通过Dataworks进行数据治理,数据地图查看数据信息和血缘关系,数据质量监控异常和报警。 适用场景 日志采集、处理及分析 日志使用Flink实时写入HDFS 日志数据实时ETL 日志HIVE分析 基于dataworks一站式开发 数据治理 方案优势 大数据一站式开发,完善的数据治理能力。 性能优越:高吞吐,高扩展性。 安全稳定:Exactly-Once,故障自动恢复,资源隔离。 简单易用:SQL语言,在线开发,全面支持UDX。 功能强大:支持SQL进行实时及离线数据清洗、数据分析、数据同步、异构数据源计算等Data Lake相关功能 ,以及各种流式及静态数据源关联查询。
步骤7 运行 flume agent 文档版本:20201020 22 基于 Dataworks的大数据一站式开发及数据治理 日志采集 执行以下命令后台运行 flume agent:nohup flume-ng agent-name a1-conf$FLUME_HOME/conf-conf-file$FLUME_HOME/conf/flume-conf.properties-Dflume.root.logger=INFO,console&2>&1&步骤8 查询 kafka中是否已有消息,...