在大数据ETL场景,Kafka是数据的流转中心,Kafka中的数据一般是原始数据,可能存在多种数据混杂的情况,需要进一步做数据清洗后才能进行下一步的处理或者保存。利用函数计算FC,可以快速高效的搭建数据处理链路,用户只需要关注数据处理的逻辑,数据的触发,弹性伸缩,运维监控等阿里云函数计算都已经做了集成,函数计算FC也支持多种下游,OSS/数据库/消息队列/ES等都可以自定义的对接
(可以选择开启,然后可以设置批量推送的条数,批量推送 间隔,根据需求选择是否批量推送)推送格式:RawData(也可以选择标准的 CloudEvents格式,但函数中的代码需要 适配解析 CloudEvents格式的逻辑)重试策略:指数衰减重试。(也可以选择退避重试)容错策略:允许容错。(允许异常容错,当异常发生时不会阻塞执行,...