我有一个谷歌云存储桶,我可以使用python中的download_blob
函数下载对象,我也可以使用gsutil cp
或gCloud comute scp
函数下载整个目录。
有没有一种方法可以使用python作为单个zip文件从存储桶下载整个目录。
这样做Python——从谷歌云存储下载整个目录需要我逐个文件下载。
有没有办法一次下载整个目录?
云存储没有“目录”的概念——相反,每个blob都可以被赋予一个类似于目录路径的名称。下载整个“目录”与下载具有相同前缀的所有blob是一样的。
这意味着您可以将通配符与gsutil
一起使用:
gsutil -m cp gs://bucket/data/abc/* .
将复制名称以/data/abc/
开头的每个Blob。
我打算将包含所有文件和目录的整个目录从一个谷歌云存储桶递归复制到另一个谷歌云存储桶。 从本地到Google云存储桶,以下代码运行良好: 如何在同一个项目中将目录从一个bucket递归复制到另一个bucket?
我有一个处理CSV文件并返回一些分析的应用程序。我的用户将文件存储在GCP云存储桶中,我希望他们能够向我传递一个存储桶URL和一些身份验证令牌/签名URL,然后应用程序将下载文件并根据需要解析它们。 阅读GCP留档时,我遇到了以下gsutil命令: 这正是我所需要的,但是我正在通过一些REST API HTTP请求寻找同样的功能。我肯定有这样的东西存在,但似乎找不到。或者,如果我可以“列出”一个存
我在谷歌云存储桶中有文件。 如何将这些文件设置为Cloudflare CDN的原点? (Cloudflare控制面板似乎只想要根域上的网站...?)
我希望有一个私有的Python包,可以从用户友好的(或者可以说开发人员友好的URL)访问,比如https://storage.googleapis.com/pypi-packages/my-package/my-package-1.0.0.tar.gz。 我希望这个包可以从其他谷歌云平台工具访问,如Dataflow,Cloud ML,Composer或GKE 你认为这是可行的吗?
问题:我想从谷歌云存储桶中的文件夹(例如桶1中的文件夹1)复制文件到另一个桶(例如桶2)。我找不到任何谷歌云存储的气流操作员来复制文件。