开发者社区> 问答> 正文

DATAX hdfsreader读取hive orc 写入mongodb读取端丢数

有张分区每个分区后 5000kw 的表,并行导了几天的数进mongodb, 部分日期 出现 数据丢失。
整个过程 datax无报错 ,有的日期丢失超过1000w数据。
导入过程后两天出现过 hdfs空间满的情况,
也就是 导入时 空间使用率很高,预计超过95%

是否现有机制下,在空间不足时读失败,无对应日志记录?

展开
收起
bulbcat 2018-12-14 16:35:56 4390 0
0 条回答
写回答
取消 提交回答
问答排行榜
最热
最新

相关电子书

更多
阿里云MongoDB备份恢复功能说明和原理介绍 立即下载
DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
《DataWorks 数据集成实时同步》 立即下载