我正在使用Scala和Apache Flink构建一个ETL,它定期读取本地文件系统中目录下的所有文件,并将每个文件的处理结果写入另一个目录下的单个输出文件中。
所以这方面的一个例子是:
/dir/to/input/files/file1
/dir/to/intput/files/fil2
/dir/to/input/files/file3
并且ETL的输出将完全符合:
/dir/to/output/files/file1
/dir/to/output/files/file2
/dir/to/output/files/file3
我尝试了各种方法,包括在写入dataSink时将并行处理减少到一个,但我仍然无法达到所需的结果。
这是我目前的代码:
val path = "/path/to/input/files/"
val format = new TextInputFormat(new Path(path))
val socketStream = env.readFile(format, path, FileProcessingMode.PROCESS_CONTINUOUSLY, 10)
val wordsStream = socketStream.flatMap(value => value.split(",")).map(value => WordWithCount(value,1))
val keyValuePair = wordsStream.keyBy(_.word)
val countPair = keyValuePair.sum("count")
countPair.print()
countPair.writeAsText("/path/to/output/directory/"+
DateTime.now().getHourOfDay.toString
+
DateTime.now().getMinuteOfHour.toString
+
DateTime.now().getSecondOfMinute.toString
, FileSystem.WriteMode.NO_OVERWRITE)
// The first write method I trid:
val sink = new BucketingSinkWordWithCount
sink.setBucketer(new DateTimeBucketerWordWithCount)
// The second write method I trid:
val sink3 = new BucketingSinkWordWithCount
sink3.setUseTruncate(false)
sink3.setBucketer(new DateTimeBucketer("yyyy-MM-dd--HHmm"))
sink3.setWriter(new StringWriter[WordWithCount])
sink3.setBatchSize(3)
sink3.setPendingPrefix("file-")
sink3.setPendingSuffix(".txt")
两种写入方法都无法产生想要的结果。
有一些有Apache Flink经验的人可以指导我写入方法吗。
我解决了导入下一个依赖项以在本地计算机上运行的问题:
Hadoop的AWS-2.7.3.jar
AWS-Java的SDK-s3-1.11.183.jar
AWS-Java的SDK-核心1.11.183.jar
AWS-Java的SDK-公里,1.11.183.jar
杰克逊的注解 - 2.6.7.jar
杰克逊核心2.6.7.jar
杰克逊 - 数据绑定 - 2.6.7.jar
乔达时间 - 2.8.1.jar
的HttpCore-4.4.4.jar
HttpClient的-4.5.3.jar
你可以查看:
https://ci.apache.org/projects/flink/flink-docs-stable/ops/deployment/aws.html
“提供S3文件系统依赖性”部分
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。