我编写了一个脚本来计算s3桶中的对象数量和每个桶的总大小。当我针对几个测试桶运行它时,代码会工作,但是当我包含所有生产存储桶时,代码就会超时。成千上万的物体。
import boto3
s3 = boto3.resource('s3')
bucket_list = []
bucket_size = {}
bucket_list = s3.buckets.all()
skip_list = ('some-test-bucket')
for bu in bucket_list:
if bu.name not in skip_list: