Hadoop工具如何形成SAP Hana的大数据平台

简介:

自2008年以来,SAP Hana一直是领先的数据库管理系统之一。它比许多其他数据库管理解决方案能够更有效地处理数据,主要是因为它可以使用一些最先进的Hadoop工具。没有Hadoop,大多数SAP Hana数据库将是相对无用的。访问大多数数据集将是困难的,特别是在它们存储原始数据的时候。

Hadoop工具如何形成SAP Hana的大数据平台

为什么Hadoop是SAP Hana的骨干

迈克尔·考克斯和戴维·埃尔斯沃斯在1997年发表的“数据可视化应用控制需求调查”一文中提出了大数据这一术语。然而,大数据的应用直到最近才变得真正可行。

这个问题与存储容量无关。云计算的进步地指数级增加了人们存储数据的能力。然而,在存储数据后,访问数据是另一个问题。大多数数据提取工具可以从存储数TB数据的数据阵列中获取。据数据科学中心称,它将一些应用的数据可访问性提高了109%。

许多数据已经以非结构化格式存储,这可能难以提取,开发Hadoop来使流程更容易。

一些SAP Hana解决方案允许用户存储高达4.6TB的数据。然而,数据通常以不同的文件类型存储,这些文件类型很难以一致的格式提取和组织。Hadoop使得这个过程更加简单容易。

SAP Hana如何与Hadoop集成

将SAP Hana与Hadoop集成可以使访问远程数据集群变得更加容易。但是,设置是一个耗时的过程。第一步是设置和安装集群。框架可以通过几种方式构建:

• 内部部署群集本地集群模型是处理需要少于50个节点的特定位置的项目的理想选择。

• 基于云计算的群集。如果用户需要在大型地理位置进行协调,或者需要超过50个节点,那么基于云计算的群集就会更好。

• 确定正确的群集后,用户将需要创建一个测试环境。Cloudera Director是其中一个更好的模型。

• 执行几个测试模拟后,用户可以使用Hadoop来访问SAPHana智能数据。

使用Hadoop与SAP Hana有什么好处?

SAP Hana管理员使用Hadoop有很多原因。许多人选择在HANA上使用SAPUI5,因为它具有特殊的Hadoop基础设施。

成本效益

据戴尔EMC公司介绍,成本效益是整合Hadoop和SAP Hana的主要原因之一。其成本节省取决于存储的数据量,而不管数据是否是结构化的,非结构化,还是半结构化的。

“VMAX所有闪存阵列通常由各种存储组,SAP ANA生产和非生产数据库以及非SAP Hana工作负载组成,每个都具有自己的存储弦CR。因此,整个系统CR是各种底层存储组比率的组合。通过工作负载的正常组合,您可以看到大约2:1的系统CR。该比例可能会更高或更低,具体取决于工作负载组合。当内联压缩与其他VMAXAllFlash节省空间的功能(如虚拟配置,零空间回收和节省空间的快照)相结合时,可实现4:1的总体效率。

快速响应时间

响应时间,可扩展性和可靠性之间存在权衡。Hadoop优先考虑快速响应时间,因此它是管理员需要紧急访问数据的应用程序的理想选择。对于可扩展性更为关注的应用程序,Hadoop可能不太可取。

用户将需要首先概述其优先级。然而,由于大多数SAP Hana用户的优先权是大多数权宜之计,因此Hadoop通常是他们的解决方案。

批处理和挖掘原始数据

使用更原始的大数据提取工具难以获取原始数据。Hadoop使它更容易,这是SAP ana应用程序中广泛使用的主要原因之一。

实体Hadoop框架是SAP ana应用程序的关键

当用户设置SAP Hana数据环境时,几乎总是需要将其与Hadoop进行集成。否则访问非结构化数据将是非常困难的。


原文发布时间为:2017年7月24日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
12天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
102 2
|
12天前
|
SQL 分布式计算 数据可视化
Tableau与大数据:可视化工具在大数据分析中的应用
【4月更文挑战第8天】Tableau是一款领先的数据可视化工具,擅长于大数据分析,提供广泛的数据连接器,支持多源整合。它与Hadoop、Spark等深度集成,实现高效大数据处理。Tableau的拖拽式界面和交互式分析功能使得非技术人员也能轻松探索数据。在实战中,Tableau用于业务监控、数据storytelling和自助式分析,推动数据民主化,提升决策效率。未来,Tableau将持续创新,扩展生态系统,并保障数据安全与合规性,助力企业最大化数据价值。
50 0
|
12天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
11天前
|
数据库
什么是 SAP S/4HANA 的 Brown Field 迁移和 Green Field 迁移
什么是 SAP S/4HANA 的 Brown Field 迁移和 Green Field 迁移
16 1
|
12天前
|
分布式计算 数据可视化 Hadoop
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现
|
12天前
|
分布式计算 资源调度 Hadoop
java与大数据:Hadoop与MapReduce
java与大数据:Hadoop与MapReduce
29 0
|
12天前
|
存储 分布式计算 Hadoop
【专栏】Hadoop,开源大数据处理框架:驭服数据洪流的利器
【4月更文挑战第28天】Hadoop,开源大数据处理框架,由Hadoop Common、HDFS、YARN和MapReduce组成,提供大规模数据存储和并行处理。其优势在于可扩展性、容错性、高性能、灵活性及社区支持。然而,数据安全、处理速度、系统复杂性和技能短缺是挑战。通过加强安全措施、结合Spark、自动化工具和培训,Hadoop在应对大数据问题中保持关键地位。
|
12天前
|
分布式计算 Hadoop 大数据
[大数据] mac 史上最简单 hadoop 安装过程
[大数据] mac 史上最简单 hadoop 安装过程
|
12天前
|
数据可视化 Linux Apache
CentOS部署Apache Superset大数据可视化BI分析工具并实现无公网IP远程访问
CentOS部署Apache Superset大数据可视化BI分析工具并实现无公网IP远程访问
|
12天前
|
机器学习/深度学习 分布式计算 大数据
一文读懂Apache Beam:统一的大数据处理模型与工具
【4月更文挑战第8天】Apache Beam是开源的统一大数据处理模型,提供抽象化编程模型,支持批处理和流处理。它提倡"一次编写,到处运行",可在多种引擎(如Spark、Dataflow、Flink)上运行。Beam的核心特性包括抽象化概念(PCollection、PTransform和PipelineRunner)、灵活性(支持多种数据源和转换)和高效执行。它广泛应用在ETL、实时流处理、机器学习和大数据仓库场景,助力开发者轻松应对数据处理挑战。
31 1