概述 基于Dataworks做大数据一站式开发,包含数据实时采集到kafka通过实时计算对数据进行ETL写入HDFS,使用Hive进行数据分析。通过Dataworks进行数据治理,数据地图查看数据信息和血缘关系,数据质量监控异常和报警。 适用场景 日志采集、处理及分析 日志使用Flink实时写入HDFS 日志数据实时ETL 日志HIVE分析 基于dataworks一站式开发 数据治理 方案优势 大数据一站式开发,完善的数据治理能力。 性能优越:高吞吐,高扩展性。 安全稳定:Exactly-Once,故障自动恢复,资源隔离。 简单易用:SQL语言,在线开发,全面支持UDX。 功能强大:支持SQL进行实时及离线数据清洗、数据分析、数据同步、异构数据源计算等Data Lake相关功能 ,以及各种流式及静态数据源关联查询。
基于 hive的离线分析 Hive是一个数据仓库基础工具在 Hadoop中用来处理结构化数据。它架构在 Hadoop 之上,提供简单的 sql查询功能,可以将 sql语句转换为 MapReduce任务进行运行。Hive 的最佳使用场合是大数据集的批处理作业,例如,网络日志分析。本章主要通过 hive对存储在 hdfs上的日志进行分析,获取错误日志记录。整体...