在大数据ETL场景,Kafka是数据的流转中心,Kafka中的数据一般是原始数据,可能存在多种数据混杂的情况,需要进一步做数据清洗后才能进行下一步的处理或者保存。利用函数计算FC,可以快速高效的搭建数据处理链路,用户只需要关注数据处理的逻辑,数据的触发,弹性伸缩,运维监控等阿里云函数计算都已经做了集成,函数计算FC也支持多种下游,OSS/数据库/消息队列/ES等都可以自定义的对接
keyword=os.environ.get('FILTER_KEYWORD')class OSSWriter:"""oss operation class"""def_init_(self,context):""":param context:fc input context,used for getting credential."""creds=context.credentials auth=oss2.StsAuth(creds.access_key_id,creds.access_key_secret,文档版本:20240408 20 基于函数计算 FC实现...