我们有一个具有多个kafka spout任务的拓扑。每个spout任务都应该从一组Kafka主题中读取消息的子集。主题必须使用通配符(如aaa.bbb.*)来订阅。预期的行为是,所有spout任务将共同使用与通配符匹配的所有主题中的所有消息。每个消息只路由到单个spout任务(忽略失败场景)。当前是否支持此操作?
也许您可以使用DynamicBrokersReader类。
Map conf = new HashMap();
...
conf.put("kafka.topic.wildcard.match", true);
wildCardBrokerReader = new DynamicBrokersReader(conf, connectionString, masterPath, "AAA.BBB.*");
List<GlobalPartitionInformation> partitions = wildCardBrokerReader.getBrokerInfo();
...
for (GlobalPartitionInformation eachTopic: partitions) {
StaticHosts hosts = new StaticHosts(eachTopic);
SpoutConfig spoutConfig = new SpoutConfig(hosts, eachTopic.topic, zkRoot, id);
KafkaSpout spout = new KafkaSpout(spoutConfig);
}
... // Wrap those created spout instances into a container
在试图理解直接交换、扇出交换和主题交换之间的区别时,我想确认主题交换的优点是生产者推送到交换并指定一个完全特定的路由密钥,队列可以通过通配符绑定到多个路由密钥。e、 g.主题推送到。。。 一个向待命团队发送所有关键错误消息的队列将像... 和一个类似的队列,错误为。*。ram将向负责增加ram的系统操作团队发送消息。 这是主题交换的正确用例吗?主题交换是唯一可以支持这种灵活性的交换吗?相反,主题交
New in version 0.6. Sphinx supports changing the appearance of its HTML output via themes. A theme is a collection of HTML templates, stylesheet(s) and other static files. Additionally, it has a confi
我们正在用Python开发gRPC服务。我们需要在endpoint中支持通配符—类似于/service/qtom/*。 是否可以这样做,或者我们是否需要在Proto文件中为每个endpoint定义RPC? 是否可以在gRPCendpoint中提供通配符?
我正在寻找在嵌入式Jetty WebAppContext contextPath中的通配符支持,但无法找到任何。我有以下代码为我的购物WebApp: 我希望,如果访问http://ip:port/shopping/任何东西,它应该加载我上面的WebApp。但事实并非如此。我也尝试了path=“/shopping/*”,但它也不起作用。 这里有人能帮助我吗,如果它可能或不可能,或者我在这里做错了什么
我的应用程序在Android N上运行良好,但在Android M上时崩溃: 奇怪的是,我甚至没有编辑任何与我的应用程序的主题有关的东西,所以这个错误非常奇怪: 致命异常:main Process:com.curlybraceApps.ruchir.Rescuer,PID:20394 java.lang.runtimeException:无法启动活动ComponentInfo{com.curlyb
嗨,我是新来的斯托姆和Kafka。我使用的是storm 1.0.1和kafka 0.10.0,我们有一个kafkaspout可以接收来自kafka主题的java bean。我花了几个小时来寻找正确的方法。发现很少文章是有用的,但没有一个方法为我工作到目前为止。 KafKaProducer: } Kyro串行器: