我有以下docker-compose.yml我有数据流服务器运行,kafka,zoomaster,mysql,指标收集器。
配置:(我只提供dataflow server(1.5.2版本),metrics collector)metrics collector:图片:springcloud/metrics-collector-kafka-10环境:-spring。安全使用者名称=Spring-Spring。安全使用者密码=cloud-spring。云流动Kafka。粘合剂经纪人=Kafka:9092-Spring。云流动Kafka。粘合剂zkNodes=zookeeper:2181个端口:-“8080:8080”
depends_on:
- kafka
数据流服务器:图像: springcloud/spring-cloud d-dataflow-server-local:${DATAFLOW_VERSION}container_name: dataflow-server端口:-"9393:9393"环境:-spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.brokers=kafka: 9092-spring.cloud.dataflow.applicationProperties.stream.spring.cloud.stream.kafka.binder.zk节点=zooKeer: 2181-spring_datasource_url=jdbc: html" target="_blank">mysql://mysql: 3306/dataflow-spring_datasource_username=root-spring_datasource_password=rootpw-spring_datasource_driver-class-name=org.mariadb.jdbc.驱动程序-spring.cloud.dataflow.metrics.collector.uri=http://172.24.173.136:8080-spring.cloud.dataflow.metrics.collector.username=Spring-spring.cloud.dataflow.metrics.collector.password=云
但是,我收到以下错误:dataflow-server|2018-10-01 23:15:41.370WARN 1---[x-MetricStore-1]o.s.c.d.s.c.support.MetricStore:从url'http://172.24.173.136:8080/collector/metrics/streams':'401'请求指标时失败。未经授权,请提供有效凭据。
我按照这个留档链接:https://github.com/spring-cloud/spring-cloud-dataflow-metrics-collector
配置中还缺少什么。我认为唯一可能的是scdf 2. x版本,那么scdf 1. x中是否有等效的属性-spring.security.user.name=Spring-spring.security.user.password=cloud
您使用的是Spring Boot 1.5中的metrics-collector-kafka-10 Docker映像。x、 在该引导基线中,安全属性是不同的。
请按照1. x版本的Metrics Collector README获取兼容的k/v对。
度量收集器的主分支默认为Spring Boot 2。x兼容性。如果您想使用2。Metrics Collector的x版本,我们有一个不同的Docker映像,在该版本中,您可以通过spring提供creds。安全使用者名称和Spring。安全使用者密码属性。这种变化是由Spring靴本身驱动的。
我试图了解运行批处理任务时通过Spring Cloud数据流WRT数据源配置的预期行为。 Spring批处理数据库表(Batch\u JOB\u EXECUTION等)是否在SCDF数据库本身中?当通过SCDF启动任务时,似乎发生了一些神奇的事情,它在SCDF数据库中创建了这些表,并似乎在使用它们。它似乎正在将SCDF数据源注入我的应用程序? 我目前在localhost服务器版本2.0.1上运行。
我正在尝试在Spring云数据流中配置DLQ。下面是流定义以及我如何部署它 在自定义转换处理器代码中,我已经提到过 这意味着若消息包含错误,那个么RunTimeException和我想在DLQ中捕获这些消息。但当我运行代码时,似乎没有得到任何名为test tran的Kafka DL队列。 我是否需要设置更多属性来启用DLQ,还是需要更改代码中的某些内容以正确使用DLQ。 自定义转换代码 Trans
大家好,我完全是Spring Cloud Streams框架的新手。 在用于Kafka Streams的spring cloud stream文档中,我可以看到在示例中使用的应用程序yaml/properties文件中引用了前缀为spring.cloud.stream.function.definition等的属性。 我知道Cloud streams使用Cloud函数,但是Cloud stream
顺便说一句:我的应用程序是一些REST控制器和一些批处理作业的组合。那么使用云数据流有意义吗?如果没有,那么是否有更好的控制台管理器用于批处理作业(如重新启动、取消作业门户)等?
我可能是docker领域的新手,并尝试将我的Spring-Boot项目与docker和docker-compose结合起来,但docker-compose不起作用。 我正在使用com.spotify maven插件,如Spring Boot文档中所述。我可以使用spotify插件构建和运行docker映像,也可以使用docker命令从命令行构建和运行docker映像,但当我尝试使用docker-c
我有一个Spring Batch Spring Boot应用程序,需要将其转换为图像,然后在Spring Cloud Data Flow中使用该应用程序来调度工作。