在大数据ETL场景,Kafka是数据的流转中心,Kafka中的数据一般是原始数据,可能存在多种数据混杂的情况,需要进一步做数据清洗后才能进行下一步的处理或者保存。利用函数计算FC,可以快速高效的搭建数据处理链路,用户只需要关注数据处理的逻辑,数据的触发,弹性伸缩,运维监控等阿里云函数计算都已经做了集成,函数计算FC也支持多种下游,OSS/数据库/消息队列/ES等都可以自定义的对接
Kafka消息轻量级 ETL处理 场景验证 creds.security_token)endpoint='https://oss-{}- internal.aliyuncs.com'.format(context.region)self.bucket=oss2.Bucket(auth,endpoint,oss_bucket)def persist(self,bucket_name,object):logger.info("Persist,bucket_name:{},object:{}".format(bucket_name,json.dumps(object)))...