大数据营销步骤

_相关内容

Quick BI

Quick BI是一款专为云上用户和企业量身打造的新一代自助式智能BI服务平台,其简单易用的可视化操作和灵活高效的多维分析能力,让精细化数据洞察为商业决策保驾护航。您可以使用外网或VPC网络连接 云数据库ClickHouse,在Quick BI中添加 云...

新增消费组

数据订阅功能支持创建消费组。通过创建多个消费组,您可以对...后续步骤 新增消费组后,根据消费客户端类型,选择订阅数据的消费方式:使用SDK示例代码消费订阅数据(推荐)使用flink-dts-connector消费订阅数据 使用Kafka客户端消费订阅数据

自动添加数据

数据库备份DBS 支持自动添加数据源功能,可以将阿里云上的RDS实例自动同步到DBS数据源中,以便后续对数据源进行管理与备份。功能说明 该功能当前仅支持自动接入RDS实例,包含 RDS MySQL、RDS SQL Server、RDS PostgreSQL、RDS MariaDB。...

客户案例

价值体现 从大数据平台上云整体“降本增效”的方案快速切入,迁移到大数据MaxCompute、实时计算、DataWorks后,部分任务有10倍以上的性能提升,存储从自建Hadoop 3PB降到900T,利用Flink实时数据处理能力,将宝宝树现有的场景实时化(...

导入数据

操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 协同。在顶部菜单栏,单击 图标,选择目标工作组,单击 资产加工。说明 若您已在 资产加工 页面,请跳过“单击 资产加工”的操作。在左侧导航栏,单击 图标,选择 字段...

数据重排

在MaxCompute的使用过程中,如果已经积累了大量数据占用了大量存储资源,且已经通过削减数据存储生命周期和删除非必要数据等方式进行了治理,在您的存储预算有限,计算资源还有冗余的情况下,可以考虑使用数据重排方式对存储空间进行优化。...

业务切换流程

此类情况通常约定在执行数据迁移任务之前将业务中断并停止新的数据写入源数据库,所以请直接跳转至步骤 5 继续操作。将业务暂时中断,禁止新的数据写入源数据库。登录源数据库,根据数据库类型选择下述命令查看会话信息,确保没有新的会话...

业务切换流程

此类情况通常约定在执行数据迁移任务之前将业务中断并停止新的数据写入源数据库,所以请直接跳转至步骤 5 继续操作。将业务暂时中断,禁止新的数据写入源数据库。登录源数据库,根据数据库类型选择下述命令查看会话信息,确保没有新的会话...

新建云计算资源

添加云计算资源为使用数据资源平台做数据支撑。以新建ApsaraDB for RDS和MaxCompute云计算资源为例,介绍如何新建云计算资源。前提条件 您已经购买ApsaraDB for RDS云计算资源,并完成RDS快速入门,具体操作,请参见 RDS快速入门。您已经...

数据库评估概览

数据库评估流程 操作步骤 登录 数据管理DMS 5.0。在顶部菜单栏中,选择 集成与开发(DTS)>异构数据库迁移(ADAM)>数据库评估。单击 在线数据库采集 或 下载采集器,采集源库数据。具体操作,请参见 数据库采集。数据库采集完成后,单击 ...

查看历史任务

数据集成任务会在每个调度时间点生成一个数据迁移任务,通过DTS控制台您可以查看所有已经运行完成的数据迁移任务,了解该任务的执行情况。前提条件 已创建数据集成任务,相关案例请参见 配置RDS MySQL间的数据集成任务。操作步骤 登录 数据...

使用DTS同步RDS MySQL数据到AnalyticDB MySQL 2.0

如果需要同步的表数量较少且分析型数据库MySQL版表结构与源端表差异较的话,可以在分析型数据库MySQL版中提前创建表,配置同步链路时候需要把下述步骤6中结构初始化的勾选项去掉即可。数据同步流程介绍 通过DTS实时同步RDS MySQL数据到 ...

步骤

数据源 单击 配置数据源,可在 设置数据源 面板中修改数据源类型和数据查询代码、预览数据源返回结果以及查看数据响应结果,详情请参见 配置资产数据数据过滤器 数据过滤器提供数据结构转换、筛选和一些简单的计算功能。单击 添加过滤器...

新建数据库网关

操作步骤 登录 数据管理DMS 5.0。在顶部菜单栏中,选择 解决方案>数据库网关。说明 若您使用的是极简模式的控制台,请单击控制台左上角的 图标,选择 全部功能>解决方案>数据库网关。在 网关列表 页面,单击 新建网关。在弹出的对话框中,...

配置TiDB输出组件

同步其他数据源的数据至TiDB数据源的场景中,完成源数据源的信息配置后,需要配置TiDB输出组件写入数据的目标数据源。本文为您介绍如何配置TiDB输出组件。前提条件 已创建TiDB数据源,如何创建,请参见 创建TiDB数据源。进行TiDB输出组件...

配置TiDB输出组件

同步其他数据源的数据至TiDB数据源的场景中,完成源数据源的信息配置后,需要配置TiDB输出组件写入数据的目标数据源。本文为您介绍如何配置TiDB输出组件。前提条件 已创建TiDB数据源,如何创建,请参见 创建TiDB数据源。进行TiDB输出组件...

新建数据

相关操作 在数据源添加成功后,在 数据源管理 页面,可对数据源进行以下操作:操作 说明 查看数据源详情 在数据源列表,单击目标数据源 操作 列的 更多,选择 查看详情,查看数据源的基本信息和数据对象的表结构信息。编辑数据源 在数据源...

查看数据迁移进度

数据迁移任务执行的过程中,您通过控制台查看结构迁移、全量数据迁移或增量数据迁移的执行情况和具体进度。前提条件 已启动数据迁移任务。操作步骤 登录 数据传输控制台。说明 若数据传输控制台自动跳转至数据管理DMS控制台,您可以在...

最佳实践

本文以轮播列表柱状图组件使用数据过滤器筛选出B站网页内的视频为例,为您演示如何使用数据过滤器。操作步骤 登录 DataV控制台。在 我的可视化 页面,选择您创建的可视化应用,单击 编辑。在 画布编辑器 页面,单击 图标打开 资产列表,在...

设置增量同步位点

本文为您介绍创建数据迁移或数据同步项目时,增量同步位点的使用限制、适用场景和操作步骤。使用限制 您在创建数据迁移或数据同步项目时,迁移/同步类型选择了 增量同步,并且未选择 全量迁移/全量同步,才会支持设置增量同步位点。设置...

配置AnalyticDB for MySQL 3.0输出组件

同步其他数据源的数据至AnalyticDB for MySQL 3.0数据源的场景中,完成源数据源的信息配置后,需要配置AnalyticDB for MySQL 3.0输出组件的目标数据源。本文为您介绍如何配置AnalyticDB for MySQL 3.0输出组件。前提条件 已创建AnalyticDB ...

配置MySQL输出组件

同步其他数据源的数据至MySQL数据源的场景中,完成源数据源的信息配置后,需要配置MySQL输出组件的目标数据源。本文为您介绍如何配置MySQL输出组件。前提条件 已创建MySQL数据源,详情请参见 创建MySQL数据源。进行FTP输出组件属性配置的...

配置MySQL输出组件

同步其他数据源的数据至MySQL数据源的场景中,完成源数据源的信息配置后,需要配置MySQL输出组件的目标数据源。本文为您介绍如何配置MySQL输出组件。前提条件 已创建MySQL数据源,详情请参见 创建MySQL数据源。进行FTP输出组件属性配置的...

配置AnalyticDB for MySQL 3.0输出组件

同步其他数据源的数据至AnalyticDB for MySQL 3.0数据源的场景中,完成源数据源的信息配置后,需要配置AnalyticDB for MySQL 3.0输出组件的目标数据源。本文为您介绍如何配置AnalyticDB for MySQL 3.0输出组件。前提条件 已创建AnalyticDB ...

自定义配置 DDL/DML

背景信息 您在配置数据迁移或数据同步项目时,如果在 选择迁移类型 或 选择同步类型 步骤选择了 增量同步,则会默认支持 DML 同步,您可以自定义配置 DML 或 DDL。DML 同步:配置数据迁移或数据同步项目时,您可以对需要同步的 DML SQL ...

注册

操作步骤 单击 营销引擎云码 渠道平台流量合作方注册。...阅读完《零售智能营销开发者协议》,勾选确认签署按钮,单击 确认提交。说明 系统会给您10秒阅读协议的时间,需要将协议阅读完成才可以选择确认签署按钮。查看注册结果。

管理数据集成任务

操作步骤 登录 数据传输控制台。在左侧导航栏,单击 数据集成。在数据集成任务列表的顶部,选择目标数据集成任务所属地域。找到目标数据集成任务,单击对应的实例ID。找到目标数据集成任务,单击对应的 停止数据集成任务。在弹出的对话框中...

资产大盘

数据管理DMS 的资产大盘功能支持T+1离线汇总当前 DMS 租户下的所有实例、数据库、表数据,并图形化展示数据资产的引擎、环境、地域、来源、类目的分布占比及数量趋势。本文介绍如何使用DMS的资产大盘。注意事项 DMS 资产大盘的 表分布占比 ...

实施步骤

通过DTS实时同步PolarDB for MySQL数据到分析型数据库MySQL版需要以下几个步骤步骤一:创建DTS同步作业 步骤二:配置同步链路 步骤三:查看同步数据 步骤一:创建DTS同步作业 创建DTS同步作业需要用户支付一定的费用,DTS支持两种付费...

Flink VVP+DLF数据入湖与分析实践

背景信息 阿里云实时计算Flink版是一套基于Apache Flink构建的实时大数据分析平台,支持多种数据源和结果表类型。Flink任务可以利用数据湖统一存储的优势,使用Hudi结果表或Iceberg结果表,将作业的结果输出到数据湖中,实现数据湖分析。在...

C100快速入门

本文介绍了购买C100数据库审计实例后,通过配置向导快速部署和使用数据库审计服务的具体操作。前提条件 已购买数据库审计实例。具体操作,请参见 购买数据库审计实例。背景信息 数据库审计服务支持审计自建数据库和阿里云原生数据库。具体...

生成数据API

数据服务解决从数仓到应用的“最后一公里”,将数据源中的数据表快速生成数据API,在API网关进行统一管理和发布。实现低成本、易上手、安全稳定的数据共享与开放。背景信息 为了将最终分析的结果加速查询后开放出API接口对接三方服务,本次...

D100快速入门

本文介绍了购买数据库审计D100实例后,如何快速部署和使用数据库审计服务。背景信息 数据库审计服务支持审计自建数据库和阿里云原生数据库。具体支持的数据库类型,请参见 支持的数据库类型。前提条件 已购买数据库审计D100实例。具体操作...

设计阶段

设计阶段的流程包括以下步骤数据探查 数据探查的目的是了解数据的形态,找到潜在问题与风险。数据探查是决定数据可靠性的关键步骤数据探查报告可以为后续开发提供指导,并作为依据制定开发计划。数据探查的内容主要包括但不限于以下...

查看数据迁移项目的详情

如果您在运行数据迁移项目时,进入了正向切换步骤数据传输会根据数据迁移项目的类型,自动删除隐藏列和唯一索引。详情请参见 数据迁移服务隐藏列机制说明。您可以在 结构迁移 页面,查看结构迁移的状态、启动时间、结束时间、总计耗时,...

列过滤

操作步骤数据同步项目配置至 选择同步对象 步骤。详情请参见相应类型的 数据同步 项目文档。选择同步对象和映射方式后,在 选择同步范围 区域右侧的 目标端对象 列表中,鼠标悬停至目标对象,单击显示的 设置。在 设置 对话框的 选择列 ...

新建数据库

操作步骤 新建数据库 您可以使用以下两种方式来新建数据库:Hologres管控台新建数据库 Hologres管控台 支持以可视化的方式新建数据库,在Hologres管控台进入对应实例的详情页,选择 数据库管理,单击 新增数据库 进行创建。说明 当前版本的...

新建数据字典

数据字典管理支持创建并维护数据模型中使用的数据字典,制定并管理平台遵循的统一数据标准,为数据元、指标、维度的值域设置中引用数据字典提供数据基础,帮助平台管理者和数据管理者管控治理后数据的一致性和数据质量。本文为您介绍如何...

查看数据

操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 洞察。在顶部菜单栏,选择 数据集。说明 若已在 数据集 页面,请跳过该步骤。在左侧导航栏,选择全部资源列表下,目标数据源的数据表。在数据集管理页面,单击 目标数据...

数据

操作步骤 登录 数据资源平台控制台。在页面左上角,单击 图标,选择 发现。在顶部菜单栏,单击 资产目录 在数据表目录页面,单击 数据表。资产目录搜索框中输入“银行客户信息”,单击 图标,查看符合条件的资产。预期结果 在资产目录页面...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用