当前位置: 首页 > 软件库 > 程序开发 > 常用工具包 >

TinyDbRouter

数据库分区分表的框架
授权协议 GPL
开发语言 Java
所属分类 程序开发、 常用工具包
软件类型 开源软件
地区 国产
投 递 者 东方和惬
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

TinyDBRouter是一个用于进行数据库分区分表的框架,它实现在JDBC驱动层,具有更好的普适性和兼容性。

支持各种数据库,支持绝大多数SQL语句。

支持读写分离和数据分表。

同时对排序、聚合等有良好支持。

 相关资料
  • 我可能对加入/组By-agg有一个天真的问题。在RDD的日子里,每当我想执行a. groupBy-agg时,我曾经说reduceByKey(PairRDDFunctions)带有可选的分区策略(带有分区数或分区程序)b.join(PairRDDFunctions)及其变体,我曾经有一种方法可以提供分区数量 在DataFrame中,如何指定此操作期间的分区数?我可以在事后使用repartition(

  • Redisson 仅在集群模式中支持数据分区(分片)。 它使得可以使用整个 Redis 集群的内存而不是单个节点的内存来存储单个数据结构实例。 Redisson 默认将数据结构切分为 231 个槽。槽的数量可在 3 和 16834 之间。槽会一致地分布在所有的集群节点上。这意味着每个节点将包含近似相等数量的槽。如默认槽量(231) 和 4 个节点的情况,每个节点将包含接近 57 个数据分区,而对

  • 我有一个具有5个分区的delta表,其中一个分区是runid列。当我尝试使用runid删除时,使用真空命令后,底层拼花文件会被删除。但这不会删除runid分区。如果我运行相同的真空命令4次,那么它会删除runid分区。 对于配置单元,我们有删除分区,但这不适用于增量表! 这就是删除在增量表中的工作方式吗?或者有没有更好的方法从托管增量表中删除runid的数据和分区?

  • 有人能解释一下将为Spark Dataframe创建的分区数量吗。 我知道对于RDD,在创建它时,我们可以提到如下分区的数量。 但是对于创建时的Spark数据帧,看起来我们没有像RDD那样指定分区数量的选项。 我认为唯一的可能性是,在创建数据帧后,我们可以使用重新分区API。 有人能告诉我在创建数据帧时,我们是否可以指定分区的数量。

  • 本文向大家介绍zabbix进行数据库备份以及表分区的方法,包括了zabbix进行数据库备份以及表分区的方法的使用技巧和注意事项,需要的朋友参考一下 由于测试环境上面使用的zabbix服务器配置比较低,经常会遇到性能瓶颈(主要是数据库和磁盘I/O等),于是倒逼我使用了一些方式来缓解这些问题。 主要是以前使用的那个备份数据库的脚本是对zabbix数据库进行全备的,使用的又是mysql自带的工具mysq

  • 整数n的划分是将n写成正整数和的一种方式。对于 例如,对于n=7,一个分区是1 1 5。我需要一个程序来查找所有 使用“r”整数对整数“n”进行分区。例如,

  • 一种是关系数据库,典型代表产品:DB2;   另一种则是层次数据库,代表产品:IMS层次数据库。   非关系型数据库有MongoDB、memcachedb、Redis等。

  • 我读过Kafka文档,但当有人谈论数据和分区时,我仍然感到困惑。在文档中,我看到客户机将向分区发送消息。然后将消息分区复制到副本(跨代理)。和使用者从分区读取数据。 我有一个有两个分区的主题。假设我有一个生产者,它向分区#1发送消息。但我有两个消费者,一个从分区1读取,另一个从分区2读取。这是否意味着我的分区1将有50%的消息,分区2将有50%的消息。或者,当客户端将数据发送到分区#1时,分区#1