当前位置: 首页 > 知识库问答 >
问题:

kafka错误。UnsupportdCodecError:UnsupportdCode错误:kafka使用者时找不到快速压缩编解码器的库

狄新立
2023-03-14

在消费者行中的消息中出现以下错误

法典:

消费者= KafkaConsumer(topic,group_id=groupid,bootstrap_servers=[host]),用于消费者中的消息:

错误:对于使用者中的消息:文件“\Python\Python38-32\lib\site packages\kafka\cconsumer\group.py”,第1192行,在next return self.next_v2()文件“\Pthon\Python38-32\lib\sitepackages\kafka\consumer\group.pry”,行1200,在next_v2 return next(self._iterator)文件“\Python\Python38-32\lib\sitepackage \kafka\ consumer\group.py”中,行1115,在_message_generator_v2 record_map=self.poll(timeout_ms=timeout_ms,update_offsets=False)文件“\Python\Python38-32\lib\site packages\kafka\cconsumer\group.py”,第654行,在poll records=self.poll_once(剩余,max_records,update_ooffsets=update_offset)文件“\Python\Python38-32\lib\site package \kafkafka\Cconsumer\group.py”中,在_poll_once记录中,第707行,_=fetched_records self.ext_partition_records=self._parse_fetched_data(max_records,update_offsets=update_offset)文件“\Python\Python38-32\lib\site packages\kafka\cconsumer\fetcher.py”,第344行,fetched-records self._next_partition _records=self._passe_fetched_data(completion)文件“\Python\Python38-32\lib\site package \kafkafka\ consumer\etcher.py”,第816行,在_parse_fetched_data unpacked=list(self._unpack_message_set(tp,records))中,文件“\Python\Python38-32\lib\site packages\kafka\cconsumer\fetcher.py”,第467行,在_unpack-message_set中,用于批处理记录:文件“\Pthon\Python38-32\lib\sitepackages\kafka\center\legacy_records.py”,第245行,in iter self._buffer=memoryview(self._decompress(key_offset))文件“\Python\Python38-32\lib\site packages\kafka\record\legacy_record.py”,第186行,in _decompressself._asset_has_codec(compress_type)文件“*Python\Python38-32\lib\site-packages\kavka\record\legacy_record.y”,第126行,在_asset_has_codec中引发UnsupportedCodeError(kafka.errors.UnsupportedcodeError:UnsupportedCode错误:未找到快速压缩编解码器的库

共有1个答案

周苑博
2023-03-14

UnsupportdCodecError:找不到快速压缩编解码器的库

要使用snappy压缩的消息,您需要安装snappy。

或者,如果您控制生产者,请不要使用 snappy。

 类似资料:
  • 我正在使用一个Kafka产品和一个SpringKafka消费者。我正在使用Json序列化器和反序列化器。每当我试图从主题中读取消费者中的消息时,我会得到以下错误: 我没有在生产者和消费者中配置任何关于头的内容。我错过了什么?

  • 这是我的密码。

  • 我正在尝试使用kafka-avro-convore-生产者发布一条具有键(带有模式)和值(带有模式)的消息。kafka环境(kafka的conFluent 6.2.0版本、连接、zoomaster、模式注册表)都正确启动,我可以确认我的连接器已安装。问题是当我发送消息时,我的Sink连接器失败并出现我无法诊断的错误。 感谢您的帮助: 我生成一条AVRO消息,如下所示: 并在连接日志中接收以下错误:

  • 问题内容: 在Python 2中,此代码是可以的: 但是在Python 3中发生以下错误: 如果删除lambda表达式中的括号,则会发生另一个错误: 也可以使用元组,因为单个lambda参数可在Python 3中使用,但尚不清楚(难以阅读): 如何在Python 3中以正确的方式解压值? 问题答案: 在PEP 3113中 讨论了删除元组拆包的问题。基本上,您无法在Python 3中执行此操作。在标

  • 我对kafka和kafka-python相当陌生。安装kafka-python后,我从这里尝试了一个简单的消费者代码实现-http://kafka-python.readthedocs.io/en/master/usage.html 我一直在kafka的bin目录中编写消费者代码,并尝试从那里运行python代码。但是,我遇到以下错误: 回溯(最近一次调用):文件 “KafkaConsumer.p

  • Kafka producer正在发送.gz文件,但无法在消费者端解压缩和读取文件。获取错误为“IOError:不是gzipped文件” producer-bin/kafka-console-producer.sh--broker-list localhost:9092-topic Airport<~/downloads/stocks.json.gz 消费者- 使用者出错-