在使用 boto3 库与 AWS S3 进行交互时,会出现打开同一 S3 文件夹时出现的问题。具体而言,如果您尝试在“读”和“写”操作之间打开相同的文件夹路径,则会出现问题。在这种情况下,您需要注意清理您的资源并避免重复打开相同的文件夹。
以下是一个示例,演示在使用 S3 文件夹进行“读”和“写”操作时出现的问题:
import boto3
s3 = boto3.resource('s3')
bucket = s3.Bucket('my-bucket')
# 读取 S3 中的文件
folder = bucket.Object('my-folder/')
response1 = folder.get()
# 写入一个新文件到 S3 中的同一文件夹
new_object = bucket.Object('my-folder/new-file.txt')
response2 = new_object.put(Body='this is my file')
# 再次读取相同的文件夹
folder = bucket.Object('my-folder/')
response3 = folder.get() # <-- 出错:This bucket is being accessed by multiple clients.
要避免这个问题,您需要始终使用一个“Resource”或“Client”实例来操作您的 S3 存储。在上面的例子中,这意味着将“folder”对象替换为一个 S3 客户端实例,或者在两个“get()”操作之间添加清理资源的步骤:
# 创建 S3 客户端资源
s3 = boto3.client('s3')
# 指定您的 bucket 名称和文件夹名称
key = {'Bucket': 'my-bucket', 'Key': 'my-folder/'}
# 读取 S3 中的文件
response1 = s3.get_object(**key)
# 向 S3 中的同一文件夹写入一个新文件
new_key = {'Bucket': 'my-bucket', 'Key': 'my-folder/new-file.txt'}
response2 = s3.put_object(Body='this is my file', **new_key)
# 再次读取相同的文件夹
response3 = s3.get_object(**key)
# 操作完成后清理资源
s3.close()