地址总线,数据总线,控制总线

_相关内容

通过EventBridge将轻量消息队列(原 MNS)投递事件...

本文为您介绍如何通过事件总线EventBridge的投递功能,将配置审计投递至轻量消息队列(原 MNS)的投递事件发送至钉钉。前提条件 请确保您已开通事件总线EventBridge。具体操作,请参见 开通事件总线EventBridge并授权。请确保您已开通轻量...

如何通过EventBridge订阅云手机事件

如果尚未开通事件总线,登录 事件总线 EventBridge 控制台,单击 免费开通,并根据页面提示 开通事件总线 EventBridge 并授权。本文以事件目标的服务类型为钉钉 acs.dingtalk 为例,需创建钉钉自定义机器人,详情请参见 钉钉开发文档。操作...

通过自定义事件总线规则创建运维项

如果阿里云提供的默认规则不能满足您当前事件要求,需要订阅更多类型的事件,以及满足审计资源的合规性和安全性要求,您可以通过自定义事件总线规则自动创建运维项,帮助您快速并针对性地配置和启用运维管理功能,以提高运维效率。...

查看指标监控

事件总线(EventBridge)支持查看多种详细的指标信息,包括过滤成功、推送成功、事件规则下游响应时间和自定义事件总线流入的指标。前提条件 已开通事件总线EventBridge并授权。已创建自定义事件总线。操作步骤 登录 事件总线EventBridge ...

云消息队列RocketMQ版(位点数据

本文介绍如何在 事件总线EventBridge 控制台添加 云消息队列 RocketMQ 版(位点数据)作为事件流中的事件提供方。前提条件 开通事件总线EventBridge并授权。创建 云消息队列RocketMQ 5.x系列实例 或 云消息队列RocketMQ 4.x系列实例。创建...

MQTT触发器

创建完成后,您可以在 函数计算 控制台查看触发器信息,同时也可以在 事件总线EventBridge 控制台查看自动创建的资源信息。当 消息队列 MQTT 版 中有消息入队时,将会触发函数计算执行,触发时会根据您的攒批配置将一个或多个消息事件以批...

开启消息订阅

在左侧导航栏单击 事件总线,找到需要配置数据过滤与指定路由服务的EventBridge事件总线,单击 操作 事件规则 进入事件规则配置页面。在事件规则页面单击左上角的 创建规则 按钮,进行事件规则的创建。配置基本信息:填写事件规则的名称和...

事件监控

数据链路开启成功后,在事件总线EventBridge控制台查看容器事件。登录 事件总线EventBridge 控制台。在左侧导航栏,单击 事件总线。在 事件总线 页面,单击目标总线名称。在左侧导航栏,单击 事件追踪。选择事件查询方式,设置查询条件,...

企业多账号场景下订阅特定资源配置变更

相关角色修改触发的变更事件在数据库中记录,如下图所示:数据规划 本文以订阅特定规则RAM角色变更事件,为您介绍通过配置审计结合事件总线,函数计算实现过滤特定规则的变更事件。相关数据规划如下表:云服务 参数 示例 配置审计 账号组 ...

Kafka触发器

创建完成后,您可以在 函数计算 控制台查看触发器信息,同时也可以在 事件总线EventBridge 控制台查看自动创建的资源信息。当源 消息队列 Kafka 版 中有消息入队时,将会触发函数计算执行,触发时会根据您的攒批配置将一个或多个消息事件以...

修改事件通知模板

在事件总线EventBridge控制台事件总线详情页面左侧导航栏单击 事件规则。在 事件规则 页面单击目标规则右侧操作列下的 编辑事件目标。在编辑模板页面 模板 文本框中修改钉钉事件通知模板,例如您可以修改screenshot的链接,然后单击 保存。...

创建数据投递任务

当您需要将某Prometheus实例的监控数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至云消息队列Kafka版或云原生大数据计算服务(MaxCompute)处理。您可以根据业务需求,选择相应的投递目标。...

创建数据投递任务

当您需要将某Prometheus实例的监控数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至云消息队列Kafka版或云原生大数据计算服务(MaxCompute)处理。您可以根据业务需求,选择相应的投递目标。...

创建数据投递任务

当您需要将某Prometheus实例的监控数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至云消息队列Kafka版或云原生大数据计算服务(MaxCompute)处理。您可以根据业务需求,选择相应的投递目标。...

创建数据投递任务

当您需要将某Prometheus实例的监控数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至云消息队列Kafka版或云原生大数据计算服务(MaxCompute)处理。您可以根据业务需求,选择相应的投递目标。...

将Prometheus数据投递至自建Prometheus实例

如果您已有自建的Prometheus实例,需要将当前云上的Prometheus数据导入至自建实例,或者需要对云上云下的多个Prometheus实例集中管理,您可以使用数据投递功能。通过Remote Write方式将Prometheus数据投递至自建Prometheus实例,可以帮助您...

将Prometheus数据投递至自建Prometheus实例

如果您已有自建的Prometheus实例,需要将当前云上的Prometheus数据导入至自建实例,或者需要对云上云下的多个Prometheus实例集中管理,您可以使用数据投递功能。通过Remote Write方式将Prometheus数据投递至自建Prometheus实例,可以帮助您...

将Prometheus数据投递至自建Prometheus实例

如果您已有自建的Prometheus实例,需要将当前云上的Prometheus数据导入至自建实例,或者需要对云上云下的多个Prometheus实例集中管理,您可以使用数据投递功能。通过Remote Write方式将Prometheus数据投递至自建Prometheus实例,可以帮助您...

设置事件分发

触发事件分发并查看 使用邮件推送服务发送一封邮件后,在事件总线控制台查看到事件的追踪记录;查看事件分发目标的结果 打开 轻量消息队列 控制台,在队列列表选择事件总线目标配置的队列(案例中为 delivery-result-queue)点击收发消息...

将Prometheus数据投递至自建Prometheus实例

如果您已有自建的Prometheus实例,需要将当前云上的Prometheus数据导入至自建实例,或者需要对云上云下的多个Prometheus实例集中管理,您可以使用数据投递功能。通过Remote Write方式将Prometheus数据投递至自建Prometheus实例,可以帮助您...

使用JDBC Connector同步MySQL数据

本文介绍如何创建JDBC Connector,将MySQL和 云消息队列 Kafka 版 的数据进行互相同步。前提条件 已开通事件总线EventBridge并授权。已开通对象存储OSS服务并创建存储空间(Bucket)。更多信息,请参见 控制台创建存储空间。已开通...

将Prometheus数据投递至大数据计算服务MaxCompute

当您需要将某个Prometheus实例的数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至大数据计算服务MaxCompute处理。MaxCompute能帮助您结合其他的数据源执行大数据计算服务,加工后用于报表分析...

将Prometheus数据投递至大数据计算服务MaxCompute

当您需要将某个Prometheus实例的数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至大数据计算服务MaxCompute处理。MaxCompute能帮助您结合其他的数据源执行大数据计算服务,加工后用于报表分析...

监控报警

云消息队列 RocketMQ 版 Global Replicator支持对数据同步任务的流入、流出和处理量等指标进行统计。此外,系统支持监控指标的云监控报警配置,当指标达到报警阈值时,将向报警接收人发出相应的报警通知。背景信息 云消息队列 RocketMQ 版 ...

通过EventBridge快速订阅ECS事件

步骤一:选用云服务专用事件总线 云服务专用事件总线即default总线,是 EventBridge 默认创建的总线,阿里云上各个云产品会实时将产品内产生的事件,通过多种渠道实时投递到default总线,您可以在default总线上查找和订阅各个云产品的事件...

将Prometheus数据投递至大数据计算服务MaxCompute

当您需要将某个Prometheus实例的数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至大数据计算服务MaxCompute处理。MaxCompute能帮助您结合其他的数据源执行大数据计算服务,加工后用于报表分析...

将Prometheus数据投递至大数据计算服务MaxCompute

当您需要将某个Prometheus实例的数据导出,进行自定义业务处理时,可以使用Prometheus数据投递功能,将Prometheus实例数据投递至大数据计算服务MaxCompute处理。MaxCompute能帮助您结合其他的数据源执行大数据计算服务,加工后用于报表分析...

将Prometheus数据投递至Kafka

实例类型 说明 Prometheus for 云服务 除cloud-product-prometheus名称开头的免费实例 Prometheus for 容器服务 无 Prometheus for Flink Serverless 无 Prometheus for Kubernetes 无 通用 除通过OpenTelemetry地址上报上来的数据 仅支持...

将Prometheus数据投递至Kafka

实例类型 说明 Prometheus for 云服务 除cloud-product-prometheus名称开头的免费实例 Prometheus for 容器服务 无 Prometheus for Flink Serverless 无 Prometheus for Kubernetes 无 通用 除通过OpenTelemetry地址上报上来的数据 仅支持...

将Prometheus数据投递至Kafka

实例类型 说明 Prometheus for 云服务 除cloud-product-prometheus名称开头的免费实例 Prometheus for 容器服务 无 Prometheus for Flink Serverless 无 Prometheus for Kubernetes 无 通用 除通过OpenTelemetry地址上报上来的数据 仅支持...

将Prometheus数据投递至Kafka

实例类型 说明 Prometheus for 云服务 除cloud-product-prometheus名称开头的免费实例 Prometheus for 容器服务 无 Prometheus for Flink Serverless 无 Prometheus for Kubernetes 无 通用 除通过OpenTelemetry地址上报上来的数据 仅支持...

通过访问分析识别和收敛外部访问

如果您需要通过EventBridge事件总线,将访问分析结果通知给您的运维团队或者发送给您的自动化处理流程,请提前开通事件总线,详情参见 开通事件总线EventBridge并授权。实施时长 在实施准备工作完成的情况下,本方案实施预计时长:60分钟 ...

EventBridge事件调度

前提条件 事件总线 开通事件总线EventBridge并授权 云工作流 基于空白画布创建工作流 创建云产品事件调度 登录 云工作流控制台,然后在顶部菜单栏,选择地域。在左侧导航栏,选择 工作流列表,然后在 工作流列表 页面,单击目标工作流。在...

数据导入

导入RDS MySQL数据 重要 新建数据源前需开通阿里云事件总线 EventBridge 服务。阿里云百炼与RDS实例 必须归属同一阿里云账号。否则请按照 导入自建MySQL数据 中步骤操作。导入大数据表(1,000,000 行以上)时,耗时可能超过数据库本地日志...

实时导出监控数据

当您需要导出事件总线的监控数据时,可以使用云监控提供的实时数据导出功能。前提条件 已开通事件总线EventBridge并授权。具体操作,请参见 开通事件总线EventBridge并授权。已创建自定义总线。具体操作,请参见 创建自定义总线。已开通...

管理Schema

本文介绍如何在 事件总线EventBridge 控制台管理Schema,包含创建、查看和删除Schema等操作。前提条件 开通事件总线EventBridge并授权 说明 云产品官方事件源的事件对应的Schema只支持在控制台上查看Schema详情和Schema版本详情,不支持...

功能发布记录

本文介绍了访问控制(RAM)产品新功能的发布时间、发布地域和相关文档。2025年10月 功能名称 功能描述 发布时间 发布地域 相关文档 过度权限治理 过度授权访问分析器可以提供权限治理的能力。分析器识别过度授权身份后,会生成对应的治理...

ListEventStreamings-查询事件流

begin RoleName string 授权事件总线 EventBridge 使用此角色读取 SLS 日志内容时,需满足条件:在 RAM 控制台创建服务所使用的角色时,需要选择“阿里云服务”,并且“受信服务”需要选择“事件总线”。testRole ...

UpdateEventStreaming-修改一个事件流

1620962769 SourceSLSParameters object 否 Source SLS 源 RoleName string 否 授权事件总线 EventBridge 使用此角色读取 SLS 日志内容时,需满足条件:在 RAM 控制台创建服务所使用的角色时,需要选择“阿里云服务”,并且“受信服务”...

使用Debezium将PostgreSQL数据同步至消息队列Kafka版

本文介绍如何创建Debezium PostgreSQL Source Connector,将PostgreSQL的数据同步至 云消息队列 Kafka 版。使用限制 Debezium PostgreSQL Source Connector只能配置一个Task用于消费源端的CDC数据,不支持并发消费配置。前提条件 开通事件...
< 1 2 3 4 ... 22 >
共有22页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用