MSE云原生网关解析body内容进行路由转发
MSE云原生网关解析body内容进行路由转发
MSE云原生网关中通过自定义插件transformer解析body内容,并用以路由转发规则判断
MSE云原生网关解析 body内容进行路由转发 业务架构 场景描述 MSE云原生网关中通过自定义插件 transformer 解析body内容,并用以路由转发规则判断 应用场景 一些场景下,请求 header头中没有可用来做路 由转发的业务信息,或者请求 header头中的信 息是加密的,这时需要网关能够对 body内容进 行解析处理。解决问题 解决应用...
来自: 最佳实践 相关产品:负载均衡 SLB,Serverless 应用引擎,微服务引擎,云速搭
SLS多云日志采集、处理及分析
SLS多云日志采集、处理及分析
场景描述 从第三方云平台或线下IDC服务器上采集 日志写入到阿里云日志服务,通过日志服务 进行数据分析,帮助提升运维、运营效率, 建立DT 时代海量日志处理能力。 针对未使用其他日志采集服务的用户,推荐 在他云或线下服务器安装logtail采集并使用 Https安全传输;针对已使用其他日志采集 工具并且已有日志服务需要继续服务的情 况,可以通过Log producer SDK写入日志 服务。 解决问题 1.第三方云平台或线下IDC客户需要使用 阿里云日志服务生态的用户。 2.第三方云平台或线下IDC服务器已有完 整日志采集、处理及分析的用户。 产品列表 E-MapReduce 专有网络VPC 云服务器ECS 日志服务LOG DCDN
步骤6 开始读取 RDD 数据集,并通过 map 函数把读取的 JavaRDD>中的 Payload(即 kafka中的消息)提取转化为 JavaRDD,并通过 collect函数把 RDD数据转化为 List。步骤7 创建 producer,使用多线程对 List中的数据进行处理,写入日志服务(这里数据写入 文档版本:20211203 61 SLS多云日志采集、处理及分析 编写 Spark作业...
来自: 最佳实践 | 相关产品:云服务器ECS,日志服务(SLS),NAT网关,E-MapReduce,全站加速 DCDN,云速搭CADT
大数据近实时数据投递MaxCompute
大数据近实时数据投递MaxCompute
本文介绍离线大数据场景使MaxCompute构建云 上近实时数仓,打通云下数据上云链路,解决数据复杂类型支持和动态分区问题,满足高级数据处理需求的最佳实践。 l混合云环境下,现有业务系统零改造,打通数据上云链路。 l使用UDF实现复杂数据类型转换和数据动态分区。 l使用DataWorks配置周期调度业务流程,数据自动入仓。 l借助MaxCompute优化计算引擎,实现降本增效。 产品列表 云服务器ECS 专有网络VPC 访问控制RAM 数据总线DataHub E-MapReduceEMR DataWorks 大数据计算服务MaxCompute
本实践模拟的数据信息中含有多 种复杂数据类型,包含 map、list、struct,后续章节将以此数据内容说明复杂数据 类型在向 MaxCompute投递过程中的处理方法。3.1.获取 Kafka 接入点 在 EMR Kafka集群页面中,展开 emr_core_1后有三个节点,记录这三个 IP地 址。记录上述地址,后续章节需要用到。192.168.0.231,192.168.0.232...
来自: 最佳实践 | 相关产品:块存储,专有网络 VPC,云服务器ECS,访问控制,E-MapReduce,DataWorks,大数据计算服务 MaxCompute,数据总线,云速搭CADT
基于湖仓一体架构使用MaxCompute对OSS湖数据分析预测
基于湖仓一体架构使用MaxCompute对OSS湖数据分析预测
本篇最佳实践先创建EMR集群作为数据湖对象,Hive元数据存储在DLF,外表数据存储在OSS。然后使用阿里云数据仓库MaxCompute以创建外部项目的方式与存储在DLF的元数据库映射打通,实现元数据统一。最后通过一个毒蘑菇的训练和预测demo,演示云数仓MaxCompute如何对于存储在EMR数据湖的数据进行加工处理以达到业务预期。
依托智能cache技术,MaxCompute自动利用闲时带宽将数据湖中的热数据以高效文件格式 cache在数据仓库中,进一步加速数据仓库的后续数据加工流程。基于湖仓一体架构使用MaxCompute对OSS湖数据分析预测 前置条件 前置条件  注册阿里云账号,并完成实名认证。您可以登录阿里云控制台,并前往实名认证页面...
来自: 最佳实践 | 相关产品:对象存储 OSS,E-MapReduce,DataWorks,大数据计算服务 MaxCompute,API网关,数据湖构建,云速搭
自建Hadoop迁移到阿里云EMR
自建Hadoop迁移到阿里云EMR
场景描述 场景1:自建Hadoop集群数据(HDFS)迁移到 阿里云EMR集群的HDFS文件系统; 场景2:自建Hadoop集群数据(HDFS)迁移到 计算存储分离架构的阿里云EMR集群,以OSS 和JindoFS作为EMR集群的后端存储。 解决的问题 客户自建Hadoop迁移到阿里云EMR集群的 技术方案; 基于IPSecVPN隧道构建安全和低成本数据 传输链路 产品列表 E-MapReduce,VPC,ECS,OSS,VPN网关。
yum install-y java java-1.8.0-openjdk-devel.x86_64 ssh slave1"yum install-y java java-1.8.0-openjdk-devel.x86_64"ssh slave2"yum install-y java java-1.8.0-openjdk-devel.x86_64"ssh slave3"yum install-y java java-1.8.0-openjdk-devel.x86_64"步骤5 下载并解压缩 Hadoop 2.10.1文件包。1.下载软件包,下面两...
来自: 最佳实践 | 相关产品:专有网络 VPC,云服务器ECS,对象存储 OSS,VPN网关,E-MapReduce,云速搭
分布式任务调度 SchedulerX
SchedulerX 是阿里巴巴自研的基于 Akka 架构的分布式任务调度平台(兼容开源 XXL-JOB/ElasticJob/K8s Job/Spring Schedule),支持 Cron 定时、一次性任务、任务编排、分布式数据处理,具有高可用、可视化、可运维、低延时等能力。
通过轻量级分布式任务直接处理数据库或 OSS 中的数据。相对于传统大数据 ETL,少了从数据库导入大数据,从大数据导出到数据库的过程,大大减少执行时间.轻量级 ETL.海量的订单数据,单机处理太慢,通过 SchedulerX 的分布式能力,调度大规模的集群同时处理,极大加快处理效率.海量订单处理.图片56*56(不可与icon共存).图片...
来自: 云产品
CDH迁移升级CDP最佳实践
CDH迁移升级CDP最佳实践
当前 CDH 免费版停止下载,终止服务,针对需要企业版服务能力并且CDH 升级过程对业务影响较小的客户,通过安装新的 CDP 集群,将现有数据拷贝至新集群,然后将新集群切换为生产集群,升级过程没有数据丢失风险,停机时间较短,适合大部分互联网客户升级使用。
3.例如,如果 Sentry 服务器使用/usr/java/jdk1.8.0_141-cloudera/bin/java路径,请 将 authz_export.sh脚本中的 JAVA_HOME属性 更改为/usr/java/jdk1.8.0_141-文档版本:20211029 88 CDH迁移升级 CDP最佳实践 组件迁移 cloudera。使用 sh authz_export.sh命令运行 authz_export.sh脚本。权限导出到/opt/backup/permissions...
来自: 最佳实践 | 相关产品:专有网络 VPC,云服务器ECS,云速搭
< 1 >
共有1页 跳转至: GO
产品推荐
这些文档可能帮助您

新品推荐

切换为电脑版

新人特惠 爆款特惠 最新活动 免费试用