大数据界面开发

_相关内容

什么是DataWorks

适配阿里云MaxCompute、E-MapReduce、Hologres、Flink、AnalyticDB、StarRocks、PAI 等数十种数据和AI计算服务,为数据仓库、数据湖、湖仓一体、Data+AI解决方案提供全链路智能化的数据集成、数据AI一体化开发数据分析与主动式数据...

同工作空间发布

适用场景 该功能仅支持 标准模式且使用了新版数据开发 的工作空间,在同一工作空间下,将节点、函数、资源、组件等对象批量从开发环境发布至生产环境。说明 标准模式的旧版数据开发同空间批量发布流程请参见 发布任务。使用限制 权限限制 ...

基于MaxCompute进行大数据BI分析

本实践以电商行业为例,通过MaxCompute、DataWorks对业务数据和日志数据进行ETL处理,并同步至分析型数据库MySQL(AnalyticDB MySQL)进行实时分析,再通过Quick BI进行可视化展示。背景信息 MaxCompute:用于进行规模数据计算,详情请...

数据源配置

数据源用于连接各类数据库和存储服务(如MaxCompute、MySQL、OSS等),是 数据集成同步任务 的必备配置,决定任务读取(数据来源)和写入(数据去向)的数据库。数据源的作用 在数据集成任务中,数据源扮演着数据流动两端的“端点”角色:...

应用示例:数据开发过程触发事件检查

本文将为您介绍数据开发DataStudio中支持的扩展点事件,以及使用扩展点触发扩展程序的操作过程。前提条件 已开启消息订阅操作,详情请参见 开启消息订阅。已完成扩展程序的开发部署操作,详情请参见 开发部署扩展程序:函数计算方式。背景...

ClusterConfig

ide:DataStudio(数据开发)。scheduler.backfill:运维中心-补数据实例。da:数据分析。scheduler.auto:运维中心-周期实例。ide ConfigValue string 配置值。{"spark.driver.memory":"1g"} EnableOverwrite boolean 是否覆盖数据开发中...

个人开发环境

Data Studio个人开发环境是账号级云端开发实例,集成OSS/NAS存储、Git代码管理及Python/Notebook生态,支持本地脚本执行、在线调试与任务提交,通过灵活的自定义镜像和外部服务扩展能力,为数据处理、模型训练及协作开发提供高效、可定制的...

配置AnalyticDB for MySQL输出

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开目标业务流程,右键单击 数据集成...

ClickHouse数据

数据同步任务开发 数据同步任务的配置入口和通用配置流程可参见下文的配置指导。单表离线同步任务配置指导 操作流程请参见 通过向导模式配置离线同步任务、通过脚本模式配置离线同步任务。脚本模式配置的全量参数和脚本Demo请参见下文的 ...

配置DataHub输入

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程...

Shell类型节点运行Python脚本

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建MaxCompute Python资源。在数据开发页面右键单击目标业务流程,选择 新建资源,在 MaxCompute ...

Shell类型节点使用ossutil工具

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建通用Shell节点。在数据开发页面右键单击目标业务流程,选择 新建节点,在 通用 目录下选择 ...

客户案例

基于飞天大数据平台产品DataWorks+MaxCompute大大提高了数据业务的开发效率,构建大润发的数据中台体系。新金融行业:某互联网金融公司湖仓一体案例 客户简介 公司的第一代数据湖是基于Hadoop+OSS搭建的,同时引入的数据中台的执行引擎和...

查看代码结构

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。进入目标节点的编辑页面。您可以在 数据开发 或 手动业务流程 的目录树下,找到目标节点,双击该...

配置DataHub输出

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程...

DataWorks官方镜像

DataWorks官方镜像为数据开发中的不同节点提供常用的运行环境,以满足不同任务的执行环境需求,您可在数据开发中直接使用官方镜像,也可以基于官方镜像创建自定义镜像后使用,本文将介绍官方镜像。镜像介绍 进行数据开发时,若未给节点配置...

Data Lake Analytics节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 自定义 Data Lake Analytics。您也可以打开相应的业务流程,右键...

操作检查

DataWorks提供了全链路的数据开发治理能力,为您提供了统一的数据开发治理流程,支持您基于自己的业务需求,在关键的流程节点上进行流程管控。本文为您介绍DataWorks在数据开发过程中支持的流程管控能力。背景信息 DataWorks的工作空间分为...

其他问题

为什么不能在调度资源组上进行大数据计算?其他 如何设置任务优先级?如何查看任务优先级?周期任务与周期实例、补数据实例、测试实例是什么关系?DataWorks每晚将根据周期任务,批量生成第二天自动调度的周期实例,周期实例自动生成并且...

调试代码片段:快捷运行

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。查找目标节点并进入节点编辑页面。在 数据开发 或 手动业务流程 功能模块的目录树,或通过 临时查询...

开发流程管控

DataWorks提供了全链路的数据开发治理能力,为您提供了统一的数据开发治理流程,同时也支持您在DataWorks的默认流程上基于自己的业务需求在关键的流程节点进行流程管控。本文为您介绍DataWorks在数据开发过程中支持的流程管控能力。背景...

参数节点

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在 数据开发 页面,鼠标悬停至 图标,单击 新建节点 通用 参数节点。您也可以打开相应的业务流程,...

认证文件管理

认证文件管理是DataWorks的核心安全功能,用于统一管理访问数据源的身份凭证。本文系统阐述了其上传、管理到引用的完整操作及应用场景,从而保障数据开发集成的安全与规范。

创建AnalyticDB for PostgreSQL表

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在 数据开发 页面,鼠标悬停至 图标,单击 新建表 AnalyticDB for PostgreSQL 表。您也可以打开相应...

行业模型模版

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击左上方的 图标,选择 全部产品 数据建模 维度建模。在顶部菜单栏单击 行业模型模版,进入行业...

使用节点组

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。在左侧业务流程目录下,双击目标业务流程,进入该业务流程的编辑面板。新建节点组。生成节点组。您...

基于自建Hadoop集群进行任务开发

步骤三:使用自定义环境运行任务 镜像发布后,即可在数据开发中使用自定义镜像,根据是否使用新版数据开发(Data Studio),选择不同的使用方法,您可参考以下内容:登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与...

建模空间

当您所需要管理多个DataWorks工作空间且需要复用一套数仓规划时,面对跨多个工作空间的复杂数据体系,可以通过设计空间来共享一套数据建模工具,针对整个数据体系进行统一的数仓规划、维度建模及指标定义等工作。本文为您介绍DataWorks建模...

JSON数据从OSS迁移至MaxCompute

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击 数据源,进入 数据源 页面,通过 新建数据源 添加MaxCompute项目。单击 新建数据源并绑定数据...

MoveWorkflowDefinition-移动数据开发工作流路径

调用此接口,可以将指定的数据开发工作流移动到数据开发目录的目标路径。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。调试 授权信息 当前API暂无授权...

GetFile-获取文件的详情

该参数与 DataWorks 控制台 中,EMR Spark Streaming 和 EMR Streaming SQL 数据开发任务,编辑页面右侧导航栏的“配置 时间属性 启动方式“对应。true InputParameters array object 节点上下文输入参数。该参数与 DataWorks 控制台 中,...

GetFile-获取文件的详情

该参数与 DataWorks 控制台 中,EMR Spark Streaming 和 EMR Streaming SQL 数据开发任务,编辑页面右侧导航栏的“配置 时间属性 启动方式“对应。true InputParameters array object 返回结果。InputContextParameter object 返回结果。...

使用内建函数

查看内建函数 在DataWorks控制台中查看函数列表的具体操作如下:登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击左侧导航栏中的 函数列表,即可...

创建EMR函数

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。新建业务流程,详情请参见 创建周期业务流程。在本地Java环境编辑程序并生成JAR包后,再新建JAR资源...

EMR Workbench

阿里云EMR Workbench是一个综合性的大数据分析和开发环境,作为阿里云E-MapReduce的一部分,它提供了EMR Notebook和EMR Workflow两个核心功能。通过EMR Workbench,您可以轻松进行数据开发,以及交互式数据分析,并设计复杂的数据处理工作...

配置LogHub(SLS)输入

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。鼠标悬停至 图标,单击 新建节点 数据集成 实时同步。您也可以展开业务流程,右键单击目标业务流程...

绑定MaxCompute计算资源

绑定完成后,可在DataWorks的各功能模块使用该计算资源连接MaxCompute项目,进行相应的数据同步、数据开发数据分析等操作。使用限制 地域限制:华东1(杭州)、华东2(上海)、华北2(北京)、华北3(张家口)、华北6(乌兰察布)、华南1...

数据服务审批策略

登录 DataWorks控制台,切换至目标地域后,单击左侧导航栏的 数据开发与运维 数据开发,在下拉框中选择对应工作空间后单击 进入数据开发。单击左上角的 图标,选择 全部产品 数据治理 审批中心,进入审批中心页面。进入审批中心页面后,在...

创建和使用EMR资源

DataWorks支持可视化创建EMR(E-MapReduce)JAR、EMR(E-MapReduce)FILE资源,用于上传提交自定义函数或开源MR示例源码作为资源,便于EMR 计算节点的数据开发过程中引用。本文为您介绍如何创建资源,并上传提交资源,为资源的使用做好前期...

使用DataWorks连接

DataWorks基于MaxCompute等引擎,提供统一的全链路大数据开发治理平台。本文为您介绍如何通过DataWorks使用MaxCompute服务。背景信息 DataWorks支持将计算引擎绑定至DataWorks的工作空间,绑定后您可以创建计算任务并进行周期调度。使用...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用