我克隆了SCDF Kinesis示例:https://github.com/spring-cloud/spring-cloud-dataflow-samples/tree/master/dataflow-website/recipes/kinesisdemo并运行相同的示例。kinesis生产者正在运行并将事件发布到kinesis。但是,由于以下错误,Kinesis消费者Spring启动失败。请让我知道是否有人面临这个问题,以及如何解决这个问题?
2020-06-25 17:55:07.374 WARN 2448 --- [ main] s.c.a.AnnotationConfigApplicationContext : Exception encountered during context initialization - cancelling refresh attempt: org.springframework.context.ApplicationContextException: Failed to start bean 'inputBindingLifecycle'; nested exception is org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'kinesisCheckpointStore' defined in org.springframework.cloud.stream.binder.kinesis.config.KinesisBinderConfiguration: Invocation of init method failed; nested exception is com.amazonaws.services.dynamodbv2.model.AmazonDynamoDBException: User: arn:aws:sts::123456789:assumed-role/xyz-dev-yyyzz-support-role/user@company.com is not authorized to perform: dynamodb:DescribeTable on resource: arn:aws:dynamodb:us-east-2:123456789:table/SpringIntegrationMetadataStore (Service: AmazonDynamoDBv2; Status Code: 400; Error Code: AccessDeniedException; Request ID: P0FF48TJVDUO29L9ULKQN89CKBVV4KQNSO5AEMVJF66Q9ASUAAJG)
2020-06-25 17:55:07.378 INFO 2448 --- [ main] o.s.s.c.ThreadPoolTaskScheduler : Shutting down ExecutorService 'taskScheduler'
2020-06-25 17:55:07.379 INFO 2448 --- [ main] o.s.i.monitor.IntegrationMBeanExporter : Summary on shutdown: nullChannel
2020-06-25 17:55:07.379 INFO 2448 --- [ main] o.s.i.monitor.IntegrationMBeanExporter : Summary on shutdown: input
2020-06-25 17:55:07.379 INFO 2448 --- [ main] o.s.i.monitor.IntegrationMBeanExporter : Summary on shutdown: errorChannel
2020-06-25 17:55:07.379 INFO 2448 --- [ main] o.s.i.monitor.IntegrationMBeanExporter : Summary on shutdown: _org.springframework.integration.errorLogger.handler
2020-06-25 17:55:07.379 INFO 2448 --- [ main] o.s.i.monitor.IntegrationMBeanExporter : Summary on shutdown: org.springframework.cloud.stream.binding.StreamListenerMessageHandler@3e03046d
2020-06-25 17:55:07.390 INFO 2448 --- [ main] ConditionEvaluationReportLoggingListener :
Error starting ApplicationContext. To display the conditions report re-run your application with 'debug' enabled.
2020-06-25 17:55:07.391 ERROR 2448 --- [ main] o.s.boot.SpringApplication : Application run failed
org.springframework.context.ApplicationContextException: Failed to start bean 'inputBindingLifecycle'; nested exception is org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'kinesisCheckpointStore' defined in org.springframework.cloud.stream.binder.kinesis.config.KinesisBinderConfiguration: Invocation of init method failed; nested exception is com.amazonaws.services.dynamodbv2.model.AmazonDynamoDBException: User: arn:aws:sts::123456789:assumed-role/xyz-dev-yyyzz-support-role/user@company.com is not authorized to perform: dynamodb:DescribeTable on resource: arn:aws:dynamodb:us-east-2:123456789:table/SpringIntegrationMetadataStore (Service: AmazonDynamoDBv2; Status Code: 400; Error Code: AccessDeniedException; Request ID: P0FF48TJVDUO29L9ULKQN89CKBVV4KQNSO5AEMVJF66Q9ASUAAJG)
根据为应用程序提供的凭据检查您的配置,因为错误清楚地表明它失败了,原因是“状态代码:400;错误代码:AccessDeniedException”
是否有一种方法以编程方式访问和打印使用者滞后偏移,或者说使用者读取的最后一条记录的偏移与某个生产者写入该使用者分区的最后一条记录的偏移之间的位置差。 要知道我的最终目标是将这个值发送到prometheus进行监视,我应该在上面添加哪些语句来得到滞后偏移值?
本文向大家介绍Lua编程示例(八):生产者-消费者问题,包括了Lua编程示例(八):生产者-消费者问题的使用技巧和注意事项,需要的朋友参考一下 这个问题是比较经典的啦,基本所有语言的多线程都会涉及到,但是没想到Lua的这个这么复杂 抓狂 看了好长时间才算看明白,先上个逻辑图: 开始时调用消费者,当消费者需要值时,再调用生产者生产值,生产者生产值后停止,直到消费者再次请求。设计为消费者驱动
我正在手动启动Zoomaster,然后是Kafka服务器,最后是Kafka-Rest服务器及其各自的属性文件。接下来,我正在tomcat上部署我的Spring Boot应用程序 在Tomcat日志跟踪中,我得到了错误org。springframework。上下文ApplicationContextException:无法启动bean的组织。springframework。Kafka。配置。inte
我观察到,运动流中存在一些记录,但KCL消费者应用程序尚未收到这些记录。发生这种情况的原因是什么?之前和之后的记录都很好。 所有异常都在我的应用程序中消耗,KCL不会收到。所以http://docs.aws.amazon.com/streams/latest/dev/troubleshooting-consumers.html#w1ab1c11c11c15b9的情况也没有发生。 一些细节:打开分片
我想从Pact开始,为我们的异步消息流体系结构启用消费者驱动的契约。在阅读了pact-foundation的大部分文档和入门指南之后,我尝试使用https://github.com/pact-foundation/pact-js/tree/master/examples/messages中的示例。现在我只需要契约创建的消费者端。 当我跑的时候 至 由于我的JavaScript/node.js/Ty
我是Kafka的新手,我已经在3台服务器上实现了KAFKA集群,并且在3台服务器中运行消费者,每台服务器有3个消费者,即…3x3=9个消费者。 我的问题是:-1.当我为同一主题在整个集群中提供相同的组ID时,我没有收到任何重复消息,但当我为相同主题在集群中提供3个不同的消费者组ID时我收到的重复消息正好是3? 请帮忙如何利用消费群体?