当前位置: 首页 > 面试题库 >

如何从S3存储桶中读取内容作为URL

韩瀚
2023-03-14
问题内容

我在下面有s3存储桶网址

s3_filename是 s3://xx/xx/y/z/ion.csv

如果它是存储桶,我可以阅读以下代码

def read_s3(bucket, key):
        s3 = boto3.client('s3')
        obj = s3.get_object(Bucket=bucket, Key=key)
        df = pd.read_csv(obj['Body'])
        return df

问题答案:

由于您似乎正在使用熊猫,因此请注意,它实际上是s3fs在盖子下使用的。因此,如果您的安装相对较新且标准,则可以直接执行以下操作:

df = pd.read_csv(s3_path)

如果您的存储桶有一些特定的配置,例如特殊凭证,KMS加密等,则可以使用显式配置的s3fs文件系统,例如:

fs = s3fs.S3FileSystem(
    key=my_aws_access_key_id,
    secret=my_aws_secret_access_key,
    s3_additional_kwargs={
            'ServerSideEncryption': 'aws:kms',
            'SSEKMSKeyId': my_kms_key,
    },
)
# note: KMS encryption only used when writing; when reading, it is automatic if you have access

with fs.open(s3_path, 'r') as f:
    df = pd.read_csv(f)

# here we write the same df at a different location, making sure
# it is using my_kms_key:
with fs.open(out_s3_path, 'w') as f:
    df.to_csv(f)

就是说,如果您真的很想处理对象,而问题只是关于如何删除潜在的s3://前缀然后进行拆分bucket/key,则可以使用:

bucket, key = re.sub(r'^s3://', '', s3_path).split('/', 1)

但是,这可能会错过更一般的情况,并通过系统处理公约,如awscli或非常s3fs上面提到的。

为了更笼统,您可以在中了解他们的操作方式awscli。通常,这样做通常可以很好地表明某些功能是否已经内置boto3botocore。但是,在这种情况下,它似乎没有(查看本地发行版本1.18.126)。他们只是从第一条原则开始这样做:请参见此处awscli.customizations.s3.utils.split_s3_bucket_key实现的内容。

从该代码中最终使用的正则表达式,您可以推断出这种情况所awscli允许的情况s3_path确实多种多样:

_S3_ACCESSPOINT_TO_BUCKET_KEY_REGEX = re.compile(
    r'^(?P<bucket>arn:(aws).*:s3:[a-z\-0-9]+:[0-9]{12}:accesspoint[:/][^/]+)/?'
    r'(?P<key>.*)$'
)


 类似资料:
  • 问题内容: 我这样做是读取了S3存储桶中的文件名 现在,我需要获取文件的实际内容,类似于。什么是最好的方法? 问题答案: boto3提供了一种资源模型,该资源模型使诸如迭代对象之类的任务变得更加容易。不幸的是,StreamingBody不提供或。

  • 我想读一本书的内容。存储在s3存储桶中的txt文件。 我试过: 但是我得到的s3file对象不包含文件的内容。 你知道该怎么做吗?

  • 使用Boto3,python脚本从S3桶中下载文件以读取它们,并将下载文件的内容写入名为的文件。 我的问题是,一旦脚本使用AWS Lambda函数,它将如何以相同的方式工作?

  • 问题内容: 我有以下代码 而且有效。但是首先将文件下载到当前目录的问题。是否可以直接在RAM中读取文件并将其解码为图像? 问题答案: 我建议使用io模块直接将文件读取到内存中,而根本不必使用临时文件。 例如: 如果您的数据是二进制的,也可以使用。

  • 我通过执行以下操作读取S3存储桶中的文件名 现在,我需要获取文件的实际内容,类似于打开(filename).readlines()。最好的方法是什么?

  • 有没有一种方法可以将文件列表从一个S3存储桶复制到另一个存储桶?两个S3存储桶都在同一个AWS帐户中。我可以使用aws cli命令一次复制一个文件: 然而,我有1000份文件要复制。我不想复制源存储桶中的所有文件,因此无法使用sync命令。有没有一种方法可以用需要复制的文件名列表来调用一个文件,从而自动化这个过程?