AWS S3 大文件分片上传

AWS S3 大文件分片上传,第1张

分段上传允许上传单个对象作为一组分段。每个分段都是对象数据的连续部分。您可以独立上传以及按任意顺序上传这些对象分段。如果任意分段传输失败,可以重新传输该分段且不会影响其他分段。上传完所有的数据元分段后,Amazon S3 将汇集这些分段并创建数据元。一般而言,如果您的对象大小达到了 100 MB,您应该考虑使用分段上传,而不是在单个 *** 作中上传对象。

分段上传流程

分段上分为三个步骤:开始上传、上传对象分段,以及在上传所有分段后完成分段上传。收到完成分段上传请求后,Amazon S3 将构建来自已上传分段的数据元,然后您可以像在您的存储桶中访问任何其他对象一样访问该对象。

您可以列出所有正在执行的分段上传,或者获取为特定分段上传 *** 作上传的分段列表。以上每个 *** 作都在本节中进行了说明。

分段上传开始

当您发送请求以开始分段上传时,Amazon S3 将返回具有上传 ID 的响应,此 ID 是分段上传的唯一标识符。无论您何时上传分段、列出分段、完成上传或停止上传,您都必须包括此上传 ID。如果您想要提供描述已上传的对象的任何元数据,必须在请求中提供它以开始分段上传。

分段上传

上传分段时,除了指定上传 ID,还必须指定分段编号。您可以选择 1 和 10000 之间的任意分段编号。分段编号在您正在上传的对象中唯一地识别分段及其位置。您选择的分段编号不必是连续序列(例如,它可以是 1、5 和 14)。如果您使用之前上传的分段的同一分段编号上传新分段,则之前上传的分段将被覆盖。

无论您何时上传分段,Amazon S3 都将在其响应中返回 ETag 标头。对于每个分段上传,您必须记录分段编号和 ETag 值。您必须在随后的请求中包括这些值以完成分段上传。

分段上传完成

完成分段上传时,Amazon S3 通过按升序的分段编号规范化分段来创建对象。如果在开始分段上传请求中提供了任何对象元数据,则 Amazon S3 会将该元数据与对象相关联。成功完成请求后,分段将不再存在。

完成分段上传请求必须包括上传 ID 以及分段编号和相应的 ETag 值的列表。Amazon S3 响应包括可唯一地识别组合对象数据的 ETag。此 ETag 无需成为对象数据的 MD5 哈希。

您可以选择停止分段上传。停止分段上传后,无法再次使用该上传 ID 上传任何分段。然后,释放取消的分段上传的任何分段的所有存储空间。如果有任何分段上传正在进行,则即使在您停止后,它们仍然可能会成功或失败。要释放所有分段使用的所有存储,必须仅在完成所有分段的上传后才停止分段上传。

参考链接: https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/userguide/mpuoverview.html

 

示例代码:

import os import redis import boto3 ################################## ################################## # 把图片数据上传到本地 redis 中 conn = redis.Redis() def store_img2redis(): """ 把图片数据存入到 redis 的列表中 """ with open(‘/Users/zxk/Desktop/1min1sec.mp4‘, ‘rb‘) as f: while True: bytes_data = f.read(1024 * 1024 * 6) # 每次读取 6 M的数据 if not bytes_data: return conn.rpush(‘gopher_img‘, bytes_data) ################################# ################################# # 把图片数据从 redis 中迭代读取出来,并分片上传到 S3 中 def list_iter(name, count=2): """ 迭代获取 redis 列表中的数据 """ idx = 0 while True: data = conn.lrange(name, idx, idx + count - 1) if not data: return idx += count for item in data: yield item client = boto3.client( ‘s3‘, aws_access_key_id=os.getenv( ‘AWS_S3_ACCESS_KEY_ID‘, ‘xxxxxxxxxxxxxxxxxxxx‘), aws_secret_access_key=os.getenv( ‘AWS_S3_SECRET_ACCESS_KEY‘, ‘xxyxyxxyxyxxyxyxyxxy‘), region_name=os.getenv(‘AWS_S3_REGION_NAME‘, ‘cn-northwest-1‘) ) part_info = { ‘Parts‘: [] } def create_multipart_upld(): """ 分片上传功能的函数 """ response = client.create_multipart_upload( Bucket=‘bucket-test‘, Key=‘static/gopher.mp4‘) # This action initiates a multipart upload and returns an upload ID print(response) part_no = 1 # 用于标识分片上传时的数据块号,即 PartNumber for part_bytes in list_iter(‘gopher_img‘): print(‘upload ID:‘, response[‘UploadId‘]) part = client.upload_part( Body=part_bytes, Bucket=‘bucket-test‘, Key=‘static/gopher.mp4‘, PartNumber=part_no, # 这个号要唯一,不唯一的话会把前面相同的PartNumber数据覆盖掉 UploadId=response[‘UploadId‘], ) # 每个 PartNumber 和 ETag 要对应起来 part_info[‘Parts‘].append({ ‘PartNumber‘: part_no, ‘ETag‘: part[‘ETag‘] }) part_no += 1 print(‘part_info:‘, part_info) # Completes a multipart upload by assembling previously uploaded parts. 告诉 AWS S3 已经分片上传完了 complete_rsp = client.complete_multipart_upload(Bucket=‘bucket-test‘, Key=‘static/gopher.mp4‘, UploadId=response[‘UploadId‘], MultipartUpload=part_info) print(‘complete_rsp:‘, complete_rsp) create_multipart_upld() """ 输出结果: {‘ResponseMetadata‘: {‘RequestId‘: ‘NVDSJHCASJD‘, ‘HostId‘: ‘MCDCSNDSNAnvdsahnvdasjk‘, ‘HTTPStatusCode‘: 200, ‘HTTPHeaders‘: {‘x-amz-id-2‘: ‘aJGYwJy7UhP/PtFW/OprgKvLxDMi9fUZJuvR2925pnzvk=‘, ‘x-amz-request-id‘: ‘NVDSJHCASJD‘, ‘date‘: ‘Fri, 02 Jul 2021 15:22:52 GMT‘, ‘transfer-encoding‘: ‘chunked‘, ‘server‘: ‘AmazonS3‘}, ‘RetryAttempts‘: 0}, ‘Bucket‘: ‘bucket-test‘, ‘Key‘: ‘static/gopher.mp4‘, ‘UploadId‘: ‘5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv‘} upload ID: 5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv upload ID: 5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv upload ID: 5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv upload ID: 5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv upload ID: 5GuYO83ZlEkhPzApxM49nxvdpvNGF3AQkG0FZ..ALMMpoZGm8KaFBVZOf2qZWY3PGBRgDXZDZXUy_tiNNYeBUOpuUbIm_meupByUIZTdzy4CYkiy0CXKrDf1_lKeGoiv part_info: {‘Parts‘: [{‘PartNumber‘: 1, ‘ETag‘: ‘"3e3d3bae6867b8d207cae1974be3e"‘}, {‘PartNumber‘: 2, ‘ETag‘: ‘"92720cb8294ee04961345f3b664d7"‘}, {‘PartNumber‘: 3, ‘ETag‘: ‘"cc20868db2f8c8c4a6aa499340e0c"‘}, {‘PartNumber‘: 4, ‘ETag‘: ‘"e1bee9034f163677e5ac917576dc7"‘}, {‘PartNumber‘: 5, ‘ETag‘: ‘"b3cd45be65e828debf0d635e75a46"‘}]} complete_rsp: {‘ResponseMetadata‘: {‘RequestId‘: ‘B9TJF3EZZ8GSDV2V‘, ‘HostId‘: ‘g7r9/b1OQ8kPLoiDMlKbDREkoRapcDD+zsUJSf4NvlchxT2sS2xHxc42MyJO5ZlcAQ=‘, ‘HTTPStatusCode‘: 200, ‘HTTPHeaders‘: {‘x-amz-id-2‘: ‘g7r9/b1OQ8kPLoiDMlKbqbE51X9iJDRapcDD+zsUJSf4NvlchxT2sS2xHxc42MyJO5ZlcAQ=‘, ‘x-amz-request-id‘: ‘B9TJF3EZZ8GSDV2V‘, ‘date‘: ‘Fri, 02 Jul 2021 15:23:08 GMT‘, ‘content-type‘: ‘application/xml‘, ‘transfer-encoding‘: ‘chunked‘, ‘server‘: ‘AmazonS3‘}, ‘RetryAttempts‘: 0}, ‘Location‘: ‘https://bucket-test.s3.cn-northwest-1.amazonaws.com.cn/static%2Fgopher.mp4‘, ‘Bucket‘: ‘bucket-test‘, ‘Key‘: ‘static/gopher.mp4‘, ‘ETag‘: ‘"2b287762a4300abda18268e1151c83e9-5"‘} """

 

 

create_multipart_upload 参考链接: https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/s3.html#S3.Client.create_multipart_upload   upload_part 参考链接: https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/s3.html#S3.Client.upload_part   complete_multipart_upload 参考链接: https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/s3.html#S3.Client.complete_multipart_upload    

AWS S3 大文件分片上传

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/1006686.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-22
下一篇 2022-05-22

发表评论

登录后才能评论

评论列表(0条)

保存