我们有几个微服务在EKS的帮助下运行在AWS中。到目前为止,数据存储在Oracle数据库中。我们在微服务和Oracle DB之间有一个Kafka话题。
现在我们计划转移到AWS Aurora db并将数据库也放在云中。到目前为止,我们的微服务(在spring boot中实现)没有任何云特定的代码,这意味着AWS SDK集成。所以我们的代码库是云不可知的,我们计划保持这种方式。
现在我们计划编写一个新的微服务,它将与Aurora交互,所以任何其他的服务,如果他们想要读/写数据到Aurora,他们就会调用这个新的服务。
我们计划有一个主极光Db和2个阅读副本。据我所知,写操作将重定向到主操作,读操作将重定向到读副本的内部LB。
我们是否需要将它与AWS SDK一起使用
仅用于管理操作。您不能使用AWS SDK或AWS API从Aurora实际读写数据(您只能使用数据API对Aurora无服务器执行此操作)。
如果我们只是使用Aurora URL进行数据操作
我现在在MySql中有一个表,730万行,如果我运行以下查询,大小为1.5GB: 如何获得mysql数据库表的大小? 我想知道在AWS Aurora的全表扫描会花多少钱? AWS将其列为: I/O费率-每100万次请求0.200美元 但我怎么可能把它翻译成“这会使我付出什么代价”呢?
我们有一个AWS Aurora数据库位于一个包含所有生产数据的实例上。我希望能够对这些数据执行分析,而不是在我们的生产环境中执行分析,因此我希望将每天的生产数据复制到另一个完全不同实例的AWS Aurora数据库中。在这个“Analytics”数据库中,我将构建所有需要的视图和存储过程,以聚合需要存储的任何转换数据。 一开始我想创建一个极光复制品,但当然那是只读的。我需要在生产环境之外找到一种方法
一、基础配置 第一步:创建极光账号 如没有极光账号,需要创建极光推送账号及应用,获得AppKey和Master Secret 两个参数。如下图所示: 第二步:在智能触达中配置极光账号 在诸葛「智能触达→设置→触达渠道→推送消息」中,找到「极光推送」,填入上一步中得到的AppKey和Master Secret参数并完成开通。 第三步:确认SDK中添加推送逻辑代码 实现推送功能,需要SDK从客户端获得
我们正在考虑从MySQL迁移到AWS Aurora。我们正在为开发人员运行vagrant,因此每个虚拟盒子都有自己的mysql实例。有没有办法在本地运行极光?如果不是,处理这种情况的最佳方法是什么?
我正在建立Shared集群的过程中。 我还想在集群中配置读副本。 假设有一个3,1个主要和2个次要的碎片。写将转到碎片的主成员,但我可以将所有读发送到次成员吗?
问题内容: 我是新手。 我有一个mysql rds实例,我刚刚创建了2个只读副本。我的应用程序是用Java编写的,到目前为止我所做的是使用已连接到一个aws实例的JDBC,但是现在如何在三台服务器之间分配工作? 问题答案: 您可以设置内部Elastic Load Balancer 将轮询请求轮换到从站。然后在代码中配置两个连接:一个直接指向主机进行写入,另一个指向ELB端点进行读取。 或者,如果您