随着业务的增长,mongodb已经达到了100GB这个数量级。以前的策略是每日半夜mongodump之后使用tar.gz压缩备份。
但是到了这个数量级上已经不适用mongodump了,非常慢,而且会造成长时间的IO负载,慢慢硬盘也有些吃紧了,经常在dump的过程中硬盘和CPU同时报警,一直持续到备份结束之后解除报警,备份一次耗时也非常长,大改3-5个小时的样子。
想问问有有没有相关经验的朋友,请教一下这个数量级别的mongodb有没有什么好的备份方案可以参考一下?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。