数据保存服务

_相关内容

如何调整Logstore的数据保存时间_日志服务(SLS)[KB:155831] | 如何删除日志?

日志服务不支持直接删除日志,您可以通过调整Logstore的数据保存时间,从而实现日志删除。当日志保存时间达到您所设置的保存时间后,日志将被删除。本文介绍如何调整...

使用KMS凭据保存账号口令、访问密钥、OAuth密钥和Token,提高... | 管理及使用通用凭据

更新凭据值,解决在代码中硬编码通用凭据带来的数据泄露风险。本文介绍如何管理及使用通用凭据。通用凭据轮转通用凭据不支持在KMS直接配置周期性轮转,但您可以通过...

数据服务

正常编辑和保存数据服务API能够正常编辑和保存跨租户访问RDS数据服务API能够正常编辑和保存保存API时报错:存在安全风险,需要使用独享服务资源组。请在右侧导航栏...

导入与导出应用服务

应用服务导入功能支持将本地应用服务数据导入到LHC控制台的应用服务创建页。...单击目标应用服务版本右侧操作栏中的导出,以JSON格式将应用服务数据保存至本地。

DataWorks的审计事件

SaveApi保存数据服务API。SaveApiSucceedExample保存运行成功的API用例。SaveTable保存表。ScanSensitiveData识别输入数据中是否存在敏感数据。SearchApi查找数据服务API。...

数据服务系统配置

数据服务系统配置入口在Dataphin首页,单击顶部菜单栏服务服务管理。单击左侧导航栏的系统配置,进入系统配置页面。API缓存数据存储位置在API缓存数据存储位置区域,单击...

数据服务API

数据地图支持对当前租户下所有工作空间的数据服务API进行搜索和定位,实现数据服务API的高效查找。进入API查找界面进入数据地图页面。登录DataWorks控制台,切换至目标...

跨链数据连接服务的开发文档_跨链数据连接服务(ODATS) | 开发文档

蚂蚁区块链跨链服务是面向智能合约提供的链上数据服务,本服务在客户区块链环境中部署跨链服务合约/链码,并且提供API接口供用户合约/链码进行调用。跨链接服务...

如何使用流式数据通道服务_云原生大数据计算服务MaxCompute... | 流式数据通道概述

数据存储量会出现增长情况:在开启异步处理的场景下(Merge或Zorder),MaxCompute流式数据通道服务会对最近一小时写入的数据保存两份,一份为原始数据,一份为异步...

数据保存和读写是在几台设备上?以什么形式?

数据保存和读写服务会分布在集群的多台服务器,同时服务

数据加工概述

日志服务提供可托管、可扩展、高可用的...您可以根据实际情况关闭源Logstore的索引,并设置较短的日志数据保存时间,以节省费用。更多信息,请参见性能指南和成本优化指南。

如何调用DataWorks的数据服务API并查看结果_DataV-Board 6.0... | 使用DataV可视化应用展示数据返回结果

本文为您介绍如何在DataV中调用DataWorks的数据服务API,并将数据返回结果展示在DataV可视化应用中。前提条件在开始本案例前,您需要首先完成准备工作,并已经生成...

自定义分析数据

您可以通过修改Logstore的数据保存时间,延长存储时间。单击目标应用站点对应的查询日志。在左侧导航栏中,单击图标。在日志存储日志库页签中,选择目标Logstore右侧的...

数据导出服务

数据导出服务能将区块链上特定的区块、交易、合约事件导出到外部的数据库中,导出过程中保证事件的完整性,符合条件的事件会被推送到外部数据库至少一次。数据导出...

SMQ事件通知迁移OSS数据_检索分析服务Elasticsearch版(ES) | 基于Logstash迁移OSS数据

通过time_rotate及size_rotate,设置当临时目录数据保存1分钟或者大小达到1000 Bytes时,触发数据上传。input参数说明请参见logstash-input-oss插件参数说明,output参数说明...

同步时源库为Oracle的注意事项及限制_数据传输服务(DTS) | 同步时源库为Oracle的注意事项及限制

自建Oracle同步至云原生数据仓库AnalyticDB PostgreSQL版自建Oracle同步至阿里云消息队列Kafka版或自建Kafka自建Oracle同步至阿里云流式数据服务DataHub自建Oracle...

数据传输服务DTS

本文介绍如何在云消息队列RocketMQ版控制台创建消息流入任务,以实现将数据传输服务DTS的数据流入至云消息队列RocketMQ版。前提条件您已购买云消息队列RocketMQ版...

数据传输服务DTS

本文介绍如何在云消息队列RocketMQ版控制台创建消息流入任务,以实现将数据传输服务DTS的数据快速导入至云消息队列RocketMQ版。前提条件您已购买云消息队列RocketMQ...

创建空间服务API

通过将空间数据管理中的各类型空间数据发布成行业标准的空间服务API,以便后续调用,减少资源操作成本。本文介绍如何创建空间服务API。前提条件已创建应用,具体操作,...

如何将自建Oracle同步至DataHub_数据传输服务(DTS) | 从自建Oracle同步至DataHub

阿里云流式数据服务DataHub是流式数据(Streaming Data)的处理平台,提供对流式数据的发布、订阅和分发功能,让您可以轻松分析和使用流式数据。您可以通过DTS将自建...

通过CloudLens for OSS采集OSS的计量日志、时序监控数据、访问... | 开启日志采集功能

CloudLens for OSS支持一键开启OSS...修改数据保存时间。存储时间和计费说明,请参见使用前须知。重置索引。重置索引的说明,请参见实时日志查询。查看Logstore对应的Bucket。

如何授权子账号使用数据订阅SDK_数据传输服务(DTS) | 授权子账号使用数据订阅SDK

RAM用户创建完成后,需要保存用户的AccessKey ID和AccessKey Secret。在左侧导航栏,选择身份管理用户。在用户页面,单击目标RAM用户操作列的添加权限。在新增授权面板,为...

将TiDB的数据迁移至RDS MySQL_数据传输服务(DTS) | 自建TiDB迁移至RDS MySQL

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将TiDB数据库的数据迁移至RDS MySQL实例。前提条件已创建存储空间大于TiDB数据库已占用存储空间的目标RDS...

修改任务配置参数_数据传输服务(DTS) | 修改任务

数据传输服务DTS(Data Transmission Service)部分状态的同步或迁移实例,支持返回到源库...在配置完任务对象后,单击保存并返回列表。订阅实例是否支持修改任务功能?不支持。

将MongoDB数据迁移至AnalyticDB PostgreSQL版_数据传输服务(DTS) | 云数据库MongoDB版迁移至云原生数据仓库AnalyticDB PostgreSQL版

数据传输服务DTS(Data Transmission Service)支持将MongoDB的数据迁移到AnalyticDB PostgreSQL版实例中。本文以云数据库MongoDB版(副本集架构)为源,为您介绍迁移操作的步骤...

数据连接管理

数据传输服务DTS(Data Transmission Service)支持录入数据库信息。在配置任务时,您可以直接选择已录入的数据库,DTS将自动填入数据库信息而无需您手动输入,避免了重复输入...

将MongoDB数据同步至AnalyticDB PostgreSQL版_数据传输服务(DTS) | 云数据库MongoDB版同步至云原生数据仓库AnalyticDB PostgreSQL版

数据传输服务DTS(Data Transmission Service)支持将MongoDB的数据同步到AnalyticDB PostgreSQL版实例中。本文以云数据库MongoDB版(副本集架构)为源,为您介绍同步操作的步骤...

在旧版控制台配置订阅任务_数据传输服务(DTS) | 配置订阅任务(旧控制台)

数据传输服务DTS(Data Transmission Service)提供的数据订阅功能简单易用,您只需在控制台上进行简单操作,即可完成整个数据订阅任务的配置。通过数据订阅功能可以实时订阅...

数据加工服务读取源Logstore错误的原因及排查处理方法_... | 源Logstore读取错误

本文介绍数据加工服务读取源Logstore错误的原因以及排查处理方法。加工引擎启动成功后,开始读取源Logstore的数据数据加工引擎对源Logstore采用流式读取,在加工过程...

将TiDB的数据迁移至AnalyticDB MySQL 3.0_数据传输服务(DTS) | 自建TiDB迁移至AnalyticDB MySQL 3.0

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将TiDB数据库的数据迁移至云原生数据仓库AnalyticDB MySQL版3.0集群。前提条件已创建存储空间大于TiDB数据库...

将TiDB的数据同步至AnalyticDB MySQL 3.0_数据传输服务(DTS) | 自建TiDB同步至AnalyticDB MySQL 3.0

本文介绍如何使用数据传输服务DTS(Data Transmission Service),将TiDB数据库的数据同步至云原生数据仓库AnalyticDB MySQL版3.0集群。前提条件已创建存储空间大于TiDB数据库...

将MongoDB的数据迁移至AnalyticDB MySQL 3.0_数据传输服务(DTS) | 云数据库MongoDB版迁移至云原生数据仓库AnalyticDB MySQL 3.0

数据传输服务DTS(Data Transmission Service)支持将MongoDB的数据迁移到云原生数据仓库AnalyticDB MySQL版3.0集群中。本文以云数据库MongoDB版(副本集架构)为源,为您介绍...

重新配置DTS任务_数据传输服务(DTS) | 重置DTS实例

前提条件同步或订阅实例已完成高级配置阶段,并且已保存在同步任务或订阅任务列表页面。更多信息,请参见同步方案概览和订阅方案概览中的相关配置文档。注意事项同步...

重新启动DTS实例_数据传输服务(DTS) | 启动DTS实例

前提条件实例已完成高级配置阶段,并保存在任务列表页面。例如,实例的运行状态为未启动、预检查通过、已暂停、运行失败等。相关配置操作,请参见同步方案概览、迁移方案...

身份管理_数据传输服务(DTS) | 身份管理

不要把RAM用户的AccessKey ID和AccessKey Secret保存在工程代码中,否则可能导致AK泄露,威胁您账号下所有资源的安全。建议您使用STS或环境变量等方式获取访问授权。...

在新版控制台配置DTS订阅任务_数据传输服务(DTS) | 配置订阅任务(新控制台)

数据传输服务DTS(Data Transmission Service)提供的数据订阅功能简单易用,您只需在控制台上进行简单操作,即可完成数据订阅任务的配置。注意事项本文仅简单介绍数据订阅...

查看DTS实例的任务进度_数据传输服务(DTS) | 查看任务进度

单击对象名称操作列的结构订正,您可以修改该对象的创建语法,然后依次单击保存和提交使修改生效。查看全量任务详情。在实例进展下方,单击全量迁移模块。单击全量...

Teradata迁移至云原生数据仓库AnalyticDB PostgreSQL版

数据传输服务DTS(Data Transmission Service)支持将Teradata迁移至云原生数据仓库AnalyticDB PostgreSQL版。前提条件该迁移任务仅支持在新版控制台配置。Teradata数据库为17...

迁移时源库为DB 2 for LUW的注意事项及限制_数据传输服务(DTS) | 迁移时源库为DB 2 for LUW的注意事项及限制

如为增量迁移任务,DTS要求源数据库的数据日志保存24小时以上,如为全量迁移和增量迁移任务,DTS要求源数据库的数据日志至少保留7天以上(您可在全量迁移完成后将...

开启数据采集功能

修改存储时长您可以在存储目标库页签中,找到目标存储库,单击图标,修改目标存储库中数据保存时间。升级旧版访问日志如果您的目标CLB实例已通过负载均衡控制台...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用