我正在尝试配置我的云端分发,以将mydomain.com请求路由到S3存储桶,并将mydomain.com/api/*请求路由到ELB。
在53号公路上,我有dev.mydomain.com指向云端分布,有别名记录
route53中云端的别名
我在云前线中配置了两个源 - 一个到 S3,另一个到可公开访问的 ELB
Cloudfront起源设置
我已经配置了一个(在默认的基础上)行为来将api/*请求路由到ELB源
Cloudfront行为设置
我对S3水桶没意见。当我添加新的行为来将api/*请求路由到ELB时,每当我点击api/* routes时都会收到一个502网关错误。
当我从我提供给Cloudfront的原点向ELB发出请求时,我在Postman中看到以下响应:
Error: Hostname/IP does not match certificate's altnames:
Host: mydomain-api-dev-env.us-east-1.elasticbeanstalk.com. is not in the cert's altnames: DNS:*.mydomain.com
这让我相信502是因为ELB url不包含在mydomain中。com的证书。
假设这是我的问题,既然我没有弹性柄,我该如何解决这个证书问题。com域?
您必须将自己的域与负载均衡器关联,并向其添加适当的 SSL。然后,在您的 CF 发行版中,您将使用自己的 ALB 域,而不是 AWS 提供的域。
有没有一种方法可以将文件列表从一个S3存储桶复制到另一个存储桶?两个S3存储桶都在同一个AWS帐户中。我可以使用aws cli命令一次复制一个文件: 然而,我有1000份文件要复制。我不想复制源存储桶中的所有文件,因此无法使用sync命令。有没有一种方法可以用需要复制的文件名列表来调用一个文件,从而自动化这个过程?
我正在编写一个PHP API,它服务于AWS中托管的移动应用程序。这个应用程序是基于图像的,就像Instagram一样。所有图像都上传到AWS Bucket中,并使用GET url请求,例如。我的问题是:为这些图像服务的最佳方式是什么?使用AWS Bucket还是CloudFront? 谢谢!
试图通过存储传输将数据从AWS S3拉到谷歌云存储。 我有S3桶访问密钥ID和秘密访问密钥,并能够从gsutil(从笔记本电脑)复制,但它从存储传输抛出权限错误。 不明白它是如何与gsutil工作,但不与存储传输。 错误消息: 有没有办法在计算引擎中使用gsutil将文件从S3复制到GCS? 谢谢,
我有一个亚马逊S3桶,我公开了这样的政策 我的水桶现在显示为http://bucket.s3-website-us-east-1.amazonaws.com/ 我看到其他人把他们的水桶称为http://s3-us-east-1.amazonaws.com/bucket/ 我更喜欢第二个URL,但它给出了拒绝访问。 如何更改策略以允许第二个URL?
所以我就做了如下的桶策略: {“版本”:“2012-10-17”,“ID”:“HTTP引用策略示例”,“语句”:[{“SID”:“允许从www.example.com和example.com发起的get请求”,“Effect”:“Allow”,“Principal”:“”Action“:”S3:“,”Resource“:”arn:aws:s3:::exampleBucket/“,”Conditio
我们有一些terraform配置,我们使用s3作为后端。我们有多个AWS帐户,每个环境一个。 在所有的环境和跨多个地区的情况下,我们有不同的选择 我不确定在不必在旧状态桶上运行destroy并在新状态桶上应用的情况下,实现这一点的最佳方法是什么。 我能想到的几个选项如下,但我不确定它们是否正确。 重命名s3桶:我明白这是不可能的(还是?) 移动s3桶:重命名的解决方案如这里所述。不确定这种方法是否