我找不到任何关于Apache Kafka Connect如何实际工作的简单解释。例如,在官方教程中,它说我们在bin目录下运行某些shell脚本,我们需要配置一些.属性
文件。
这很清楚。我猜我们需要克隆整个apache kafka源代码,因为这些shell文件在apache kafka源代码中使用了许多其他shell脚本和java类。
但是,我们将连接器代码放在哪里,以何种格式放置呢?作为源代码还是作为jar文件?当我们说我的连接器类是“com.example ...”为什么Kafka知道去哪里找它?有人可以澄清这些或指出一些教程吗?注意,我正在运行所有的东西,包括我的本地kubernetes kafka集群,我不愿意使用Confluent。
克隆整个阿帕奇Kafka源代码
假的。Apache Kafka下载(二进制文件,不是源代码),已经包含Kafka Connect。
Kafka Connect并非Confluent独有。他们(和其他人)编写插件。您将代码放入插件中。path
属性值作为JAR。相关-使用汇流轮毂而不安装汇流平台
当我们说我的连接器类是“com.example.…”Kafka怎么知道去哪里找它?
JVM类路径。
kubernetes kafka集群本地
Strimzi拥有类型:KafkaConnect
资源,包括安装连接器插件。
问题内容: 我想设置全局变量,例如: 这该怎么做? 问题答案: 最简单的方法是使用来告诉您的应用程序是在开发模式下运行(使用AppEngine SDK)还是在现场(正在生产中)运行: IsDevAppServer报告App Engine应用程序是否在开发App Server中运行。 另外,您也可以使用其中包含此信息以及您的App版本的信息,并合并为一个字符串: ServerSoftware返回Ap
在这几周的 Serverless 应用开发里,我觉得最大的不便就是,缺少一个本地的调试环境。在这种时候,我们需要不断地部署我们的代码,不断地在我们的代码里写上几行 console.log,然后在一切正常之后,再把这些 console.log 删除。 可要是,突然间又出现了一个 bug,我仿佛看到了我们又要重来一遍。 就这样经历了几次之后,我便想尝试一些新的手段,比如 serverless-offl
我决定在OSGI和Karaf之上构建一个应用程序--我真的很喜欢这个东西。然而,我在本地开发机器上的日常部署有点吃力。我是说..我做了一个更改,然后我想在我的本地Karaf实例上测试它。每小时可能发生几次。 我现在做的方式是一个maven构建,它创建一个JAR包,然后将其复制到Karaf的deploy目录中。我认为这一点也不高雅。 我想找到一个绕过(谷歌)的方法。我读过关于Karaf的特性,但看起
问题内容: 我是使用Heroku的新手,并且有一个Ruby / Sinatra应用程序,我打算在其中使用MySQL数据库作为主要数据存储。 但是,我不想将结果直接写到Heroku上的数据库中。相反,我想将结果写入本地数据库,然后能够轻松地将本地数据库部署/更新/复制到Heroku上的“生产”数据库。 我该怎么做呢? 谢谢。 问题答案: 首先Heroku在本地使用postgres。如果您在本地使用,
硬件需求 任务执行节点(datas-node)是多线程高并发、CPU和内存消耗型应用,所以对CPU核数、RAM有较高要求 最低要求 CPU 4+ RAM 4G+ 软件需求 kafka集群 zookeeper集群 kafka和数据同步都用到了zk,用以实现分布式、可扩展服务 jdk8+ 有用到jdk8特性 资源消耗 在没有消息消费的情况下的内存占用仅为15M左右,出现消息洪峰时,CPU和内存会很高,
我已经为karaf(4.0.1)创建了first project。到目前为止,我得到了以下信息: 使用构建的应用程序包。还会有更多... 使用创建的karaf特性。 使用相同插件创建的karaf-assembly 所以我已经做好了交付给客户的准备--但是我在开发过程中陷入了困境。这个问题几乎回答了我剩下的所有问题,除了一个: 在通过运行构建了我的项目之后,我想我应该能够使用类似命令这样的东西在本地