开发者社区> 问答> 正文

flink 读一批文件,多久进行这批数据老化,需要如何实现?

项目背景:

  flink运行在hadoop, yarn上,使用java开发,流式处理, 数据源是文件读取,数据量连续比较大,因此需要对数据文件进行老化处理,老化机制删除七天前的数据文件。

遇到的问题:但是在运行任务时,某一个文件(七天前的文件)会报FileNotFountException。

问题还原现象:将老化时间改为一天前的,运行job后,隔一段时间某一个文件(一天前的文件)会报FileNotFountException。

咨询下各位前辈这可能是什么原因造成的

展开
收起
耳东209 2018-07-01 16:09:04 3048 0
0 条回答
写回答
取消 提交回答
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载