我正在使用Spring引导连接到谷歌云存储。
我能够连接到一个文件,并从谷歌云存储桶中读取内容。
但是我不能得到谷歌云存储桶中所有文件的列表。
请帮帮我。
这很有效
Resource gcsFile = this.context.getResource("gs://" + bucketName + "/" + filePath);
这不工作。
Resource[] resources = this.context.getResources("gs://" + bucketName + "/*.*");
有什么原因吗?
我在这里找到了一个文档,其中包含可以帮助您的示例代码。看一看,告诉我这是否有用。
此页面显示如何列出存储在云存储桶中的对象,这些对象在列表中按名称按字典顺序排列。
提前谢谢你。我在文件中找不到任何相关的东西。它提供了关于如何创建bucket、如何上传、如何下载、如何授予权限的信息,但没有关于如何读取它的信息。 此外,我如何从我的计算机打开它(在运行'GCloud app deploy'命令之前)?
我希望有一个私有的Python包,可以从用户友好的(或者可以说开发人员友好的URL)访问,比如https://storage.googleapis.com/pypi-packages/my-package/my-package-1.0.0.tar.gz。 我希望这个包可以从其他谷歌云平台工具访问,如Dataflow,Cloud ML,Composer或GKE 你认为这是可行的吗?
我正在尝试使用脚本从部署在谷歌云中的Hadoop集群访问谷歌存储桶。如果bucket访问是只读的,则会失败。 我在做什么: > 使用 在主机上: 看看GCS Java源代码,Google Cloud Storage Connector for Hadoop似乎需要空的“目录”对象,如果bucket是可写的,它可以自己创建这些对象;否则它就失败了。设置导致“检索对象时出错”错误。 是否可以以某种方式
问题:我想从谷歌云存储桶中的文件夹(例如桶1中的文件夹1)复制文件到另一个桶(例如桶2)。我找不到任何谷歌云存储的气流操作员来复制文件。
我打算将包含所有文件和目录的整个目录从一个谷歌云存储桶递归复制到另一个谷歌云存储桶。 从本地到Google云存储桶,以下代码运行良好: 如何在同一个项目中将目录从一个bucket递归复制到另一个bucket?
我试图使用Java客户机将数据从S3传输到GCS,但我遇到了这个错误。 由于权限不足,无法获取Google云存储(GCS)存储桶的位置。请验证是否已授予必要的权限。 我正在使用具有项目所有者角色的服务号,它应该授予对所有项目资源的无限制访问权限。