我在下面有s3存储桶网址
s3_filename是 s3://xx/xx/y/z/ion.csv
如果它是存储桶,我可以阅读以下代码
def read_s3(bucket, key):
s3 = boto3.client('s3')
obj = s3.get_object(Bucket=bucket, Key=key)
df = pd.read_csv(obj['Body'])
return df
由于您似乎正在使用熊猫,因此请注意,它实际上是s3fs
在盖子下使用的。因此,如果您的安装相对较新且标准,则可以直接执行以下操作:
df = pd.read_csv(s3_path)
如果您的存储桶有一些特定的配置,例如特殊凭证,KMS加密等,则可以使用显式配置的s3fs
文件系统,例如:
fs = s3fs.S3FileSystem(
key=my_aws_access_key_id,
secret=my_aws_secret_access_key,
s3_additional_kwargs={
'ServerSideEncryption': 'aws:kms',
'SSEKMSKeyId': my_kms_key,
},
)
# note: KMS encryption only used when writing; when reading, it is automatic if you have access
with fs.open(s3_path, 'r') as f:
df = pd.read_csv(f)
# here we write the same df at a different location, making sure
# it is using my_kms_key:
with fs.open(out_s3_path, 'w') as f:
df.to_csv(f)
就是说,如果您真的很想处理对象,而问题只是关于如何删除潜在的s3://
前缀然后进行拆分bucket/key
,则可以使用:
bucket, key = re.sub(r'^s3://', '', s3_path).split('/', 1)
但是,这可能会错过更一般的情况,并通过系统处理公约,如awscli或非常s3fs上面提到的。
为了更笼统,您可以在中了解他们的操作方式awscli
。通常,这样做通常可以很好地表明某些功能是否已经内置boto3
或botocore
。但是,在这种情况下,它似乎没有(查看本地发行版本1.18.126)。他们只是从第一条原则开始这样做:请参见此处awscli.customizations.s3.utils.split_s3_bucket_key
实现的内容。
从该代码中最终使用的正则表达式,您可以推断出这种情况所awscli
允许的情况s3_path
确实多种多样:
_S3_ACCESSPOINT_TO_BUCKET_KEY_REGEX = re.compile(
r'^(?P<bucket>arn:(aws).*:s3:[a-z\-0-9]+:[0-9]{12}:accesspoint[:/][^/]+)/?'
r'(?P<key>.*)$'
)
问题内容: 我这样做是读取了S3存储桶中的文件名 现在,我需要获取文件的实际内容,类似于。什么是最好的方法? 问题答案: boto3提供了一种资源模型,该资源模型使诸如迭代对象之类的任务变得更加容易。不幸的是,StreamingBody不提供或。
我想读一本书的内容。存储在s3存储桶中的txt文件。 我试过: 但是我得到的s3file对象不包含文件的内容。 你知道该怎么做吗?
使用Boto3,python脚本从S3桶中下载文件以读取它们,并将下载文件的内容写入名为的文件。 我的问题是,一旦脚本使用AWS Lambda函数,它将如何以相同的方式工作?
问题内容: 我有以下代码 而且有效。但是首先将文件下载到当前目录的问题。是否可以直接在RAM中读取文件并将其解码为图像? 问题答案: 我建议使用io模块直接将文件读取到内存中,而根本不必使用临时文件。 例如: 如果您的数据是二进制的,也可以使用。
我通过执行以下操作读取S3存储桶中的文件名 现在,我需要获取文件的实际内容,类似于打开(filename).readlines()。最好的方法是什么?
有没有一种方法可以将文件列表从一个S3存储桶复制到另一个存储桶?两个S3存储桶都在同一个AWS帐户中。我可以使用aws cli命令一次复制一个文件: 然而,我有1000份文件要复制。我不想复制源存储桶中的所有文件,因此无法使用sync命令。有没有一种方法可以用需要复制的文件名列表来调用一个文件,从而自动化这个过程?