在大数据ETL场景,将Kafka中的消息流转到其他下游服务是很常见的场景,除了常规的消息流转外,很多场景还需要基于消息体内容做判断,然后决定下游服务做何种操作。 该方案实现了通过Kafka中消息Key的内容来判断应该对MongoDB做增、删、改的哪种DML操作。 当Kafka收到消息后,会自动触发函数计算中的函数,接收到消息,对消息内容做判断,然后再操作MongoDB。用户可以对提供的默认函数代码做修改,来满足更复杂的逻辑。 整体方案通过CADT可以一键拉起依赖的产品,并完成了大多数的配置,用户只需要到函数计算和MongoDB控制台做少量配置即可。
l 数据库版本:MongoDB 7.0(也可以根据实际需求选择其他版本)l 节点数:三节点。(除此外还提供 5 节点,7 节点)l 只读节点:无只读节点。l 存储引擎:WiredTriger l 存储类型:ESSD PL1 云盘(除此以外,还提供 PL2,PL3,AutoPL 的类型)l 加密类型:不加密 l 规格类别:独享规格 l 规格:4 核 8GB(独享型)(可以...