我正在与spring integration合作,以实现从UDPendpoint到kafka的数据流。我已经在@Configuration中将replyingKafkaTemplate初始化为@Bean,包括使用者和生产者配置。当我的服务器启动并发送一些udp请求后,我可以看到消费者的指标。但是,即使在producer配置中设置了jmx reporter,我也看不到producer的指标。
我试图不设置producer metrics reporter,假设它会自动显示为consumer metrics(没有额外的配置)
生产者配置
Map<String, Object> configProps = new HashMap<>();
configProps.put(
ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
bootstrapAddress);
configProps.put(
ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
StringSerializer.class);
configProps.put(
ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
KafkaAvroSerializer.class);
configProps.put("schema.registry.url", "http://schema-regisry-server:8081");
configProps.put(
ProducerConfig.RETRIES_CONFIG,
3);
configProps.put(ProducerConfig.RECONNECT_BACKOFF_MS_CONFIG, 500);
configProps.put(ProducerConfig.RECONNECT_BACKOFF_MAX_MS_CONFIG, 5000);
configProps.put(ProducerConfig.METRIC_REPORTER_CLASSES_CONFIG, "org.apache.kafka.common.metrics.JmxReporter");
configProps.put(ProducerConfig.METRICS_RECORDING_LEVEL_CONFIG, "INFO");
printConfigProps(configProps);
return new DefaultKafkaProducerFactory<>(configProps);
消费者配置
Map<String, Object> properties = new HashMap<>();
properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapAddress);
properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, KafkaAvroDeserializer.class);
properties.put("schema.registry.url", "http://schema-regisry-server:8081");
properties.put(ConsumerConfig.GROUP_ID_CONFIG, "spring-integration");
// automatically reset the offset to the earliest offset
properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
return properties;
Kafka模板创建
@Bean
public ReplyingKafkaTemplate<String, DataModel, DataModel> replyKafkaTemplate(ProducerFactory<String, DataModel> pf, KafkaMessageListenerContainer<String, DataModel> container) {
ReplyingKafkaTemplate<String, DataModel, DataModel> template = new ReplyingKafkaTemplate<>(pf, container);
template.start();
return template;
}
监听器容器创建:
@Bean
public KafkaMessageListenerContainer<String, DataModel> replyContainer(ConsumerFactory<String, DataModel> cf) {
ContainerProperties containerProperties = new ContainerProperties(destinationTopic);
containerProperties.setGroupId("test");
return new KafkaMessageListenerContainer<>(cf, containerProperties);
}
消费者工厂创建
@Bean
public ConsumerFactory<?, ?> consumerFactory() {
return new DefaultKafkaConsumerFactory<>(consumerConfigs());
}
Spring Boot 2 2.3.0之前的版本仅在默认情况下公开消费者指标。Spring Boot 2.3.0(几周前发布)依赖于微米1.4,默认情况下,微米1.4公开了消费者和生产者指标。如果您不能使用最新版本的Spring Boot,您将不得不自己实现它。
我要监控的应用程序为健康检查提供了一个apiendpoint,该endpoint使用json中的指标进行响应。例如: 我已经设置了Prometheus blackbox\u exporter,以监视此endpoint是否返回200 Ok,但理想情况下,我也希望获得这些指标。我知道instrumentation直接从应用程序导出这些数据。但是,由于应用程序已经在导出json对象中我想要的内容,我更希
我是从蝗虫出口商那里来的。所以我安装了它,并按照文档中所述的步骤进行操作,然后运行commmand hocust_exporter.py 1234 localhost:8089,其中1234是一个端口。但它也犯了一些错误。 处理来自('127.0.0.1',11950)回溯(最后一次调用)的请求时发生异常:文件“E:\Python\lib\socketserver.py”,第650行,进程中请求线
我正在使用带Spring靴2的SCDF。x metrics和SCDF metrics collector从我的Spring Boot应用程序收集指标。我真的不理解收集器关于聚合度量(aggregateMetrics)数据的逻辑。 当我获取为我的流收集的指标列表时,我只有以开头的指标,因此我只有平均值。我尝试了所有方法来查看其他指标,就像endpoint公开的指标一样。 我想我误解了指标的聚合方式。
我将我的GKE API服务器升级到1.6,并正在将节点升级到1.6,但遇到了一个障碍... 我有一个prometheus服务器(版本1.5.2),运行在一个由Kubernetes部署管理的pod中,其中两个节点运行版本1.5.4Kubelet,一个新节点运行版本1.6。 但普罗米修斯仍然得到401。 更新:就像乔丹所说的kubernetes认证问题。在这里看到新的、更集中的问题;https://s
null 使用默认配置和轻微的定制。 我可以访问prometheus、grafana和alertmanager,查询度量标准并查看精美的图表。 但是prometheus-adapter在启动时不断抱怨它不能访问/发现度量: 在我的设置中,对于prometheus-adapter的正确值是什么?
我试图使用现有的Prometheus(集群外部)从EKS集群内部聚合所有的指标,EC2(CPU、ram、disk)和POD(CPU、ram、disk)。我开始使用node-exporter、kube-state-metrics添加数据,但我一直坚持部署metrics-server。使用helm I conf并安装它,和正在提取数据,但是有人能告诉我如何将所有这些都提取到外部的Prometheus吗