数据系统开发

_相关内容

配置代码模板

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击左侧导航栏底部的 图标,进入 设置 页面。在 设置 页面,单击切换至 代码模板 页签,进入 代码...

创建EMR Kyuubi节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建EMR Kyuubi节点。右键单击目标业务流程,选择 新建节点 EMR EMR Kyuubi。说明 您也可以鼠标悬停...

创建并使用AnalyticDB for PostgreSQL节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 AnalyticDB for PostgreSQL ADB for PostgreSQL。在 新建节点...

编辑器代码提效

进入编辑器界面 登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。进入节点的代码编辑器。在数据开发页面的左侧目录树查找目标节点,双击节点名称即可...

设置全局Spark参数

您可参考 Spark官方文档 自定义全局Spark参数,并配置全局Spark参数的优先级是否高于指定模块内(数据开发数据分析、运维中心)的SPARK参数。本文为您介绍如何设置全局Spark参数。背景信息 Apache Spark是用于进行大规模数据分析的引擎。...

创建EMR Impala节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建EMR Impala节点。右键单击目标业务流程,选择 新建节点 EMR EMR Impala。说明 您也可以鼠标悬停...

基于MaxCompute UDF分析IP来源

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在 DataStudio(数据开发)页面的 数据开发 页签下,右键单击目标 业务流程,选择 新建节点 ...

创建AnalyticDB for PostgreSQL表

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在 数据开发 页面,鼠标悬停至 图标,单击 新建表 AnalyticDB for PostgreSQL 表。您也可以打开相应...

创建CDH Hive节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击某个业务流程,选择 新建节点 CDH CDH Hive。说明 鼠标悬停至顶部 新增 按钮,根据界面提示...

创建CDH Presto节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击某个业务流程,选择 新建节点 CDH CDH Presto。说明 鼠标悬停至顶部 新增 按钮,根据界面...

创建EMR Presto节点

Presto(即PrestoDB)是一款灵活、可扩展的分布式SQL查询引擎,支持使用标准的SQL查询语言进行大数据的交互式分析查询,DataWorks为您提供EMR Presto节点,便于您在DataWorks上进行Presto任务的开发和周期性调度。本文为您介绍使用EMR ...

Doris节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 Doris。在 新建节点 对话框输入节点 名称,单击 确认...

基于自建Hadoop集群进行任务开发

步骤三:使用自定义环境运行任务 镜像发布后,即可在数据开发中使用自定义镜像,根据是否使用新版数据开发(Data Studio),选择不同的使用方法,您可参考以下内容:登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与...

SelectDB节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 Selectdb。在 新建节点 对话框输入节点 名称,单击 ...

SAP HANA节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 Saphana。在 新建节点 对话框输入节点 名称,单击 ...

使用节点组

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在左侧业务流程目录下,双击目标业务流程,进入该业务流程的编辑面板。新建节点组。生成节点组。您...

Redshift节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 Redshift。在 新建节点 对话框输入节点 名称,单击 ...

StarRocks

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 StarRocks。在 新建节点 对话框输入节点 名称,单击 ...

MoveWorkflowDefinition-移动数据开发工作流路径

调用此接口,可以将指定的数据开发工作流移动到数据开发目录的目标路径。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权...

OceanBase节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 OceanBase。在 新建节点 对话框输入节点 名称,单击 ...

实现开发生产等多套环境隔离

使用DataWorks进行大数据开发时,支持对开发、测试、生产等环境进行隔离,当您联合使用了其他阿里云产品时,也可根据环境隔离诉求进行对应业务的环境设置与隔离,本文以DataWorks联合EMR、OSS等产品为例,为您介绍如何实现开发生产等多套...

创建并使用MaxCompute表

进入数据开发(DataStudio)登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建MaxCompute表 新建表入口 您可在DataWorks表管理目录中新建,也可在...

建模空间

模型设计师设置好 数据模型设计空间 与 数据研发工作空间 的关系后,模型设计师在进行模型(汇总表、维度表、明细表、应用表)发布时,可以选择将模型物化到被关联的某一个研发空间,后续数据开发工程师即可在对应的工作空间进行数据开发...

PolarDB MySQL节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 PolarDB MySQL。在 新建节点 对话框输入节点 名称,...

数据安全治理的难点

流转 大数据系统通常是端到端的一整套数据开发和治理服务,不仅要采集数据、加工数据,更要将数据提供给业务方使用。因此,其存在错综复杂的数据流转链路,包括但不限于即席查询链路、离线传输链路、实时传输链路、数据服务API链路、其他...

JSON数据从OSS迁移至MaxCompute

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击 数据源,进入 数据源 页面,通过 新建数据源 添加MaxCompute项目。单击 新建数据源并绑定数据...

PolarDB PostgreSQL节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 数据库 PolarDB PostgreSQL。在 新建节点 对话框输入节点 ...

创建手动任务

您可以在DataWorks的数据开发(DataStudio)模块创建手动任务,并在生产环境的运维中心管理手动任务。本文为您介绍如何创建手动任务,并将手动任务发布到生产环境。使用说明 若任务不需要发布生产环境操作生产环境引擎,您可选择 新建临时...

迁移助手

旧版数据开发 中的数据质量节点、组合节点和数据推送节点暂不支持。当前各个版本的DataWorks均支持Oozie、Azkaban、Airflow等开源调度引擎作业搬站上云,但是不同版本的DataWorks的迁移助手在进行DataWorks迁移时,有不同支持策略,如下表...

创建CDH MR节点

在DataWorks任务开发中,您可以通过创建CDH MR(MapReduce)节点处理超大规模的数据集。本文为您介绍如何在DataWorks中创建并使用CDH MR节点。前提条件 数据开发(DataStudio)中已创建业务流程。数据开发(DataStudio)基于业务流程对不同...

ClickHouse SQL

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。右键单击目标业务流程,选择 新建节点 ClickHouse ClickHouse SQL。在 新建节点 对话框中输入节点 ...

数据推送节点

数据推送节点可将Data Studio业务流程中其他节点产生的数据查询结果,通过新建数据推送目标,将数据推送至钉钉群、飞书群、企业微信群、Teams以及邮件,便于团队成员及时接收和关注最新数据情况。原理介绍 数据推送节点,可以通过 节点上...

迁移助手概述

旧版数据开发 中的数据质量节点、组合节点和数据推送节点暂不支持。当前各个版本的DataWorks均支持Oozie、Azkaban、Airflow等开源调度引擎作业搬站上云,但是不同版本的DataWorks的迁移助手在进行DataWorks迁移时,有不同支持策略,如下表...

创建EMR函数

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建业务流程,详情请参见 创建周期业务流程。在本地Java环境编辑程序并生成JAR包后,再新建JAR资源...

CDH资源与函数

Data Studio支持可视化创建并管理CDH Jar和File资源,创建的资源可用于创建自定义函数或在数据开发。本文将介绍如何通过资源管理来创建CDH不同类型的资源和函数。前提条件 已 注册CDH集群至DataWorks,创建资源与函数均基于Flink计算资源...

配置Hologres输出

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程...

配置LogHub(SLS)输入

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程...

迁移Oracle数据至MaxCompute最佳实践

通过DataWorks将数据从Oracle迁移至MaxCompute 登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在 数据开发 页面创建目标表,用于接收从Oracle迁移...

创建并管理MaxCompute节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。绑定MaxCompute计算资源 到工作空间,并 创建业务流程。数据开发(DataStudio)基于业务流程对不同...

离线数仓构建流程

步骤一:开发维度逻辑表 步骤二:开发事实逻辑表 步骤三:开发原子指标 步骤四:开发业务限定 步骤五:开发指标 运维补数据 对任务进行数据回刷,包括管道任务、维度逻辑表、事实逻辑表以及指标。步骤七:运维补数据 验证数据 您可以通过...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用