【最佳实践】OSS开源工具ossutil-大文件断点续传

本文涉及的产品
对象存储 OSS,20GB 3个月
对象存储 OSS,恶意文件检测 1000次 1年
对象存储 OSS,内容安全 1000次 1年
简介: # OSS断点续传 ## 应用场景 当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。 针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。

经常碰到内部同学或者外部客户问ossutil关于大文件断点续传的问题。本文简单描述下原理并举例说明。

用户可从这里获取ossutil。

官网:https://help.aliyun.com/document_detail/50452.html
代码:https://github.com/aliyun/ossutil

OSS断点续传

应用场景

当调用OSS的PutObject来上传较大的文件时,如果上传过程中出现错误,比如网络错误,那么此次上传失败。重试时必须从文件起始位置上传。

针对这种情况,OSS提供了分片上传(Multipart Upload)来达到断点续传的效果。分片上传就是将要上传的文件分成多个数据块(OSS里又称之为Part)来分别上传,上传完成之后再调用OSS的接口将这些Part组合成一个Object。

因此,OSS断点续传适用于以下场合。

  • 恶劣的网络环境:如手机端,当出现上传失败的时候,可以对失败的Part进行独立的重试,而不需要重新上传其他的Part。
  • 断点续传:中途暂停之后,可以从上次上传完成的Part的位置继续上传。

详细信息,请参考https://help.aliyun.com/document_detail/31850.html

实现原理

在分片上传的过程中,已经上传的Part的生命周期是永久的,因此很容易可以实现断点续传的功能。

如果分片上传意外失败,可以在重启的时候调用以下接口。

有了上传成功的Part列表,就可以从最后一块成功上传的Part开始继续上传,从而达到断点续传的效果。暂停和恢复上传实现原理也是一样的。

ossutil大文件断点续传

ossutil上传文件时,如果文件大小超过--bigfile-threshold选项指定的大小(默认为100M),ossutil会认为该文件为大文件,并自动使用断点续传策略。

续传策略

  • 上传至OSS

    • ossutil会对大文件自动分片,进行multipart分片上传;
    • 如果上传失败,会在本地.ossutil_checkpoint目录记录失败信息,下次重传时会读取.ossutil_checkpoint目录中的信息进行断点续传,当上传成功时会删除.ossutil_checkpoint目录。
  • 从OSS下载

    • ossutil会自动对大文件分片下载,所有分片下载后组装成一个文件;
    • 如果下载失败,同样会在.ossutil_checkpoint目录记录失败信息,重试成功后删除.ossutil_checkpoint目录。
  • 在OSS间拷贝

    • ossutil会自动对大文件分片,使用Upload Part Copy方式拷贝;
    • 同样会在.ossutil_checkpoint目录记录失败信息,重试成功后会删除.ossutil_checkpoint目录。

实现原理

断点续传的重点在于需要本地记录已经上传了多少,还需要上传多少。因此ossutil在本地默认.ossutil_checkpoint目录下创建文件记录本次上传分片信息,并用LevelDB记录哪些分片已经上传成功。

比如,在.ossutil_checkpoint目录下创建如下文件并记录分片信息。具体内容可参考后面的例子。

$ ls .ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp
.ossutil_checkpoint/Users/tester/ws/test.file.200M---oss:/tempb3/test.file.200M.cp

例子

上传并中断

本文给出一个上传的例子,下载和拷贝操作方法类似。

# 200M文件上传

$ ls -lh test.file.200M
-rw-r--r--  1 zubo.yzb  staff   200M  6 11 15:34 test.file.200M

# 上传18%时Ctrl+C掉

$ ossutil cp test.file.200M oss://tempb3
Total num: 1, size: 209,715,200. Dealed num: 0, OK size: 38,456,400, Progress: 18%^C⏎

碎片信息

ls命令加-a选项可参考分片信息。

$ ossutil ls oss://tempb3 -a
Object Number is: 0
InitiatedTime                     UploadID                            ObjectName
2018-06-11 15:34:57 +0800 CST     15E03889BFF34823AF47A6F65A8E7B11    oss://tempb3/test.file.200M
UploadID Number is: 1
0.116129(s) elapsed

也可以登录控制台查看分片(碎片)信息。

image.png

Checkpoint文件

默认在当前目录下会创建.ossutil_checkpoint目录,并将断点信息写入文件,文件名如上所述。

文件数据定义如下。

type uploadCheckpoint struct {
    Magic     string   // magic
    MD5       string   // cp内容的MD5
    FilePath  string   // 本地文件
    FileStat  cpStat   // 文件状态
    ObjectKey string   // key
    UploadID  string   // upload id
    Parts     []cpPart // 本地文件的全部分片
}

type cpStat struct {
    Size         int64     // 文件大小
    LastModified time.Time // 本地文件最后修改时间
    MD5          string    // 本地文件MD5
}

type cpPart struct {
    Chunk       FileChunk  // 分片
    Part        UploadPart // 上传完成的分片
    IsCompleted bool       // upload是否完成
}
// FileChunk 文件片定义
type FileChunk struct {
    Number int   // 块序号
    Offset int64 // 块在文件中的偏移量
    Size   int64 // 块大小
}
// UploadPart 上传/拷贝的分片
type UploadPart struct {
    XMLName    xml.Name `xml:"Part"`
    PartNumber int      `xml:"PartNumber"` // Part编号
    ETag       string   `xml:"ETag"`       // ETag缓存码
}

文件内容如下。

{
    "FilePath": "test.file.200M",
    "FileStat": {
        "LastModified": "2018-06-11T15:34:18+08:00",
        "MD5": "",
        "Size": 209715200
    },
    "MD5": "3Rv7Fx0gbfPLWKOa4OjMew==",
    "Magic": "FE8BB4EA-B593-4FAC-AD7A-2459A36E2E62",
    "ObjectKey": "test.file.200M",
    "Parts": [
        {
            "Chunk": {
                "Number": 1,              =====> 第1个分片
                "Offset": 0,
                "Size": 2563760           =====> 每个分片size为2563760=2503KB
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",     =====>已经成功上传的分片有ETag
                "PartNumber": 1,          =====> 第1个分片
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 15,             =====> 第15个分片
                "Offset": 35892640,
                "Size": 2563760
            },
            "IsCompleted": true,          =====> 已经成功上传
            "Part": {
                "ETag": "\"EC704FC6D8822194EEC4E68769739BE3\"",
                "PartNumber": 15,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
        {
            "Chunk": {
                "Number": 16,             =====> 第16个分片
                "Offset": 38456400,
                "Size": 2563760
            },
            "IsCompleted": false,         =====> 未上传
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        },
。。。
        {
            "Chunk": {
                "Number": 82,              =====>82个分片
                "Offset": 207664560,
                "Size": 2050640
            },
            "IsCompleted": false,
            "Part": {
                "ETag": "",
                "PartNumber": 0,
                "XMLName": {
                    "Local": "",
                    "Space": ""
                }
            }
        }
    ],
    "UploadID": "15E03889BFF34823AF47A6F65A8E7B11"
}

断点续传

再次上传直接从断点开始继续,可以观察到progress直接从18%开始,直到结束。

$ ossutil cp test.file.200M oss://tempb3 -f
Succeed: Total num: 1, size: 209,715,200. OK num: 1(upload 1 files).
11.461563(s) elapsed

总结

  • 小文件不会断点续传,失败后下次直接重传;
  • 对于上传至OSS或在OSS间拷贝,如果失败,OSS上可能会产生Uncomplete的UploadId,但只要最终成功,就不会存在Uncomplete的UploadId(会被组装成object);
  • 上传到oss时,如果.ossutil_checkpoint目录包含在file_url中,.ossutil_checkpoint目录不会被上传到oss。该目录路径可以用--checkpoint-dir选项指定,如果指定了该选项,请确保指定的目录可以被删除。
  • 如果使用rm命令删除了Uncomplete的Multipart Upload,可能会造成下次cp命令断点续传失败(报错:NoSuchUpload),这种时候如果想要重新上传整个文件,请删除相应的checkpoint文件。

    $ ossutil cp test.file.200M oss://tempb3
    Total num: 1, size: 209,715,200. Dealed num: 0, Transfer size: 0. When error happens.
    Error: oss: service returned error: StatusCode=404, ErrorCode=NoSuchUpload, ErrorMessage=The 
    specified upload does not exist. The upload ID may be invalid, or the upload may have been 
    aborted or completed., RequestId=5B1E2B177953A44A418E6FD5, File=test.file.200M!
    Will remove checkpoint dir '.ossutil_checkpoint' automatically. Please try again.⏎
  • 分片上传不直接等于断点续传,但是基于分片上传可以实现断点续传的效果。
  • 如果上传的文件是不变的,分片的方法也是不变的,那么只需要在本地记录文件已经成功上传了哪些分片,后面重新上传的时候,跳过已经成功上传的分片,就能达到断点续传的效果。

Reference

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
目录
相关文章
|
存储 弹性计算 安全
使用OSS上传下载文件
阿里云对象存储OSS(Object Storage Service)是一款海量、安全、低成本、高可靠的云存储服务,可以提供多种用途,最简单的使用方式是做文件存储,用来上传下载文件啊
2758 0
使用OSS上传下载文件
|
24天前
|
存储 Cloud Native Serverless
云原生最佳实践系列 7:基于 OSS Object FC 实现非结构化文件实时处理
阿里云OSS对象存储方案利用函数计算FC,在不同终端请求时实时处理OSS中的原图,减少衍生图存储,降低成本。
|
8月前
|
前端开发 API 开发工具
阿里云oss开发实践:大文件分片、断点续传、实时进度 React+Node+Socket.IO
阿里云oss开发实践:大文件分片、断点续传、实时进度 React+Node+Socket.IO
856 1
|
10月前
|
SQL 存储 监控
通过sdk查看oss投递(新版)延迟情况最佳实践
在投递任务中,日志服务会将运行日志写入到给定的logstore中,因而可以使用SDK来查看投递任务的当前状态,并进行批量查询,以了解多个Project和投递任务的状态。下面以查看oss投递的延迟为例,介绍客户提供操作步骤和常见的使用场景,以帮助客户更加方便地监控和管理投递任务。
通过sdk查看oss投递(新版)延迟情况最佳实践
|
存储 数据采集 运维
Alibaba Cloud Lens for OSS最佳实践
——其冀 阿里云智能产品专家
Alibaba Cloud Lens for OSS最佳实践
|
对象存储
oss 追加上传支持excel文件使用吗
oss 追加上传支持excel文件使用吗
|
对象存储 iOS开发
iOS开发:日志记录文件及压缩上传OSS
发现APP上传本地日志文件相当的好用,根据之前研究学习的对这一模块做了一些更具体的优化处理。从标题可以看出,实现这一功能分以下几个步骤: 1、日志记录本地文件 2、日志文件压缩[xx.zip] 3、压缩之后的文件上传 4、压缩文件删除
501 0
|
Linux Go 对象存储
ossutil迁移日志文件至阿里云OSS
ossutil支持在Windows、Linux、macOS等系统中运行,您可以根据实际环境下载和安装合适的版本。
553 0
|
SQL 分布式计算 关系型数据库
Hive 数仓迁移 JindoFS/OSS 数据湖最佳实践
Hive 数仓是大多数迁移客户都会遇到的场景。在迁移过程中,不建议同时在新集群进行业务升级(比如从 Hive on MR 迁移到 Hive on Tez 或 Spark SQL等),这些业务升级可以在迁移完成后进行。1. 元数据同步Hive 元数据是对于 Hive 表来说非常关键,除了表结构信息,里面还记录着 Hive 表与底层文件系统的关联关系,许多上层服务都依赖 Hive 元数据提供服务。a.
569 0
|
Linux 对象存储 数据中心
阿里云oss同步文件到本地,添加宝塔定时任务自动同步
阿里云oss同步文件到本地,添加宝塔定时任务自动同步
1414 0

相关产品

  • 对象存储