Porter

数据同步中间件
授权协议 Apache
开发语言 Java
所属分类 数据库相关、 数据库管理工具
软件类型 开源软件
地区 国产
投 递 者 慕冠宇
操作系统 跨平台
开源组织 随行付
适用人群 未知
 软件概览

概要

Porter是一款数据同步中间件,主要用于解决同构/异构数据库之间的表级别数据同步问题。

Porter始于2017年,提供数据同步功能,但并不仅仅局限于数据同步,在随行付内部广泛使用。主要提供一下功能:

  • 数据库准实时同步

  • 数据库迁移

  • 数据库治理

  • 自定义源端、目标端数据同步

  • 自定义数据抽取逻辑

核心功能

  • 原生支持Oracle|Mysql到Jdbc关系型数据库最终一致同步

  • 插件友好化,支持自定义源端消费插件、目标端载入插件、告警插件等插件二次开发。

  • 支持自定义源端、目标端表、字段映射

  • 支持节点基于配置文件的同步任务配置。

  • 支持管理后台同步任务推送,节点、任务管理。提供任务运行指标监控,节点运行日志、任务异常告警。

  • 支持节点资源限流、分配。

  • 基于Zookeeper集群插件的分布式架构。支持自定义集群插件。

 

https://github.com/sxfad/porter

https://gitee.com/sxfad/porter.git

  •  接上 [搜索]波特词干(Porter Streamming)提取算法详解(2) 下面分为5大步骤来使用前面提到的替换条件来进行词干提取。 左边是规则,右边是提取成功或者失败的例子(用小写字母表示)。 步骤1 SSES -> SS                   caresses  ->  caress IES  -> I                          ponies  

  • Porter词干算法(或“ Porter stemmer”)是用于从英语单词中删除较常见的词法和不固定词尾的过程。它的主要用途是术语标准化过程的一部分,该过程通常在设置信息检索系统时完成。 #!/usr/bin/env python import sys class PorterStemmer: def __init__(self): """The main part

  • 中文 Porter 是一款适用于物理机部署 Kubernetes 的负载均衡器,该负载均衡器使用物理交换机实现,利用 BGP 和 ECMP 从而达到性能最优和高可用性。我们知道在云上部署的 Kubernetes 环境下,通常云服务厂商会提供 cloud LB 插件暴露 Kubernetes 服务到外网,但在物理机部署环境下由于没有云环境,服务暴露给外网非常不方便,Porter 是一个提供用户在物理

  • https://www.jianshu.com/p/c50c48ba4448

  • Porter v4 fixes all known design flaws (#31, #43) and critically re-evaluates every part of Porter's design. All base classes have been discarded (AbstractProvider, AbstractResource), moving their cod

  • The Porter Stemming Algorithm Porter Stemming Algorithm The Porter Stemming Algorithm  This is the ‘official’ home page for distribution of the Porter Stemming Algorithm, written and maintained by its

 相关资料
  • Porter 始于 2017 年,提供数据同步功能,但并不仅仅局限于数据同步,在随行付内部广泛使用。

  • 使用VUEX如何实现更新浏览器不同关卡的内容? 如下面DEMO,如何实现在page1更新count后,page2不用刷新自动更新? store/index.js page1 page2

  • 问题内容: 我们正在多家商店中运行带有MySql后端的Java PoS(销售点)应用程序。我想保持商店中的数据库与主机服务器上的数据库同步。 商店中发生某些更改时,应在主机服务器上对其进行更新。我该如何实现? 问题答案: 复制不是很难创建。 这里有一些很好的教程: http://aciddrop.com/2008/01/10/step-by-step-how-to-setup-mysql-data

  • 我正在尝试使用基于Kafka Connect的Confluent在几个MySQL数据库之间同步数据。我在源连接器配置中使用了“批量”作为模式,因为主键类型是 varchar,所以我无法使用递增模式。它工作正常,但我遇到了两个问题: 似乎它无法同步删除,当源数据库中的数据被删除时,接收器数据库没有任何变化。数据仍存在于接收器数据库中。 同步数据需要相当长的时间。就我而言,同步具有 2~4k 行的表大

  • 5.8.1.1 Elasticsearch 安装 安装 logstash ElasticSearch中 logstash安装和logstash-input-jdbc插件 安装 logstash-input-jdbc插件 logstash-plugin install logstash-input-jdbc # 在有网点环境下安装,将安装插件后的 logstash 拷贝到内网环境即可使用。 编辑

  • “同步到数据库”功能让你比对物理模型和现有数据库或模式,显示它们之间结构的差异,并提供同步模型的结构到目标连接。 Navicat 提供一个向导,一步一步指导你完成任务: 选择“文件”->“同步到数据库”。 选择源数据库、模式,然后从现有的连接中选择目标连接、数据库、模式。 点击“选项”并选择比对或高级选项。 点击“比对”以显示源对象和目标对象之间的差异。 选择要同步的对象。 点击“部署”以生成一组