我正在通过https://www.influxdata.com/blog/getting-started-python-influxdb/留档来查询Python的InspxDB。
我能够创建数据库:
client = InfluxDBClient(host='localhost', port=8086)
client.create_database('pyexample')
client.get_list_database()
client.switch_database('pyexample')
另外,我还在数据库中发送数据:
json_body = [
{
"measurement": "brushEvents",
"tags": {
"user": "Carol",
"brushId": "6c89f539-71c6-490d-a28d-6c5d84c0ee2f"
},
"time": "2018-03-28T8:01:00Z",
"fields": {
"duration": 127
}
},
{
"measurement": "brushEvents",
"tags": {
"user": "Carol",
"brushId": "6c89f539-71c6-490d-a28d-6c5d84c0ee2f"
},
"time": "2018-03-29T8:04:00Z",
"fields": {
"duration": 132
}
},
{
"measurement": "brushEvents",
"tags": {
"user": "Carol",
"brushId": "6c89f539-71c6-490d-a28d-6c5d84c0ee2f"
},
"time": "2018-03-30T8:02:00Z",
"fields": {
"duration": 129
}
}
]
调用json主体为:
client.write_points(json_body)
True
但是很快,我想从数据库中查询指标:
client.query('SELECT "duration" FROM "pyexample"."autogen"."brushEvents" WHERE time > now() - 4d GROUP BY "user"')
此查询导致错误:
文件ipython-inport-31-6e47204db16b,第1行,在模块client.query('SELECT'持续时间'from"pyform"."autogen"."brushEvents"WHERE time
file"/home/rahul/anaconda2/lib/python2.7/site-Package/Imverxdb/client.py",第420行,在data.get中查询("结果",[])
文件"/home/rahul/anaconda2/lib/python2.7/site-包/入侵xdb/resultset.py",第25行,在初始化中提升入侵DBClientError(self.error)
InfluxDBClientError: retention policy not found: autogen
如何获得查询结果?
我检查了保留策略,也发现错误:
client.query('SHOW RETENTION POLICIES')
回溯(最近一次呼叫最后一次):
文件“”,第1行,在client.query中('显示保留策略')
文件“/home/rahul/anaconda2/lib/python2.7/site packages/influxdb/client.py”,第409行,查询预期响应代码=预期响应代码
文件“/home/rahul/anaconda2/lib/python2.7/site packages/influxdb/client.py”,第286行,在请求提升influxdbclientorror(response.content,response.status_代码)中
InfluxDBClientError:400:{“error:”错误分析查询:找到EOF,应在第1行char 25上“}
将autogen
更改为default
:
client.query('SELECT "duration" FROM "pyexample"."default"."brushEvents" WHERE time > now() - 4d GROUP BY "user"')
向STATSD发送数据时: statsd将在刷新后输出结果,并将数据插入influxDB: 有什么想法吗?InflxDB:0.9.3
假设我有一个多代理(运行在同一主机上)的Kafka设置,其中有3个代理和50个主题,每个主题配置为有7个分区和3个复制因子。 我有50GB的内存要用于kafka,并确保kafka日志永远不会超过这个内存数量,因此我想配置我的保留策略以防止这种情况。 我已设置删除清理策略: 我应该如何配置上述参数,以便每7天删除一次数据,并确保如果需要,可以在较短的窗口中删除数据,这样我就不会耗尽内存?
问题内容: 从Java文档中: CLASS:注释由编译器记录在类文件中,但VM在运行时无需保留。 运行时:注释由编译器记录在类文件中,并在运行时由VM保留,因此可以通过反射方式读取它们。 消息来源:注释将被编译器丢弃。 我了解RUNTIME(以便在反射中使用批注)和CLASS(对于编译器)的用法,但我不知道何时使用它可能有用 @Retention(RetentionPolicy.SOURCE) 你
本文向大家介绍kafka 有几种数据保留的策略?相关面试题,主要包含被问及kafka 有几种数据保留的策略?时的应答技巧和注意事项,需要的朋友参考一下 kafka 有两种数据保存策略:按照过期时间保留和按照存储的消息大小保留。
我想为我们拥有的一些用例实现数据回放,为此,我需要使用Kafka保留策略(我使用的是连接,我需要窗口时间才能准确)。附言:我正在使用Kafka版本0.10.1.1 我将数据发送到主题中,如下所示: 我创建的主题如下: Kafka主题--创建--zookeeper localhost:2181--复制因子1--分区1--主题myTopic Kafka主题--zookeeper localhost--
编辑: 我稍微调整了一下城墙的配置,现在我被困在了另一个点上。 在Rampart的PostDispatchVerficationHandler中,抛出异常,因为尚未处理安全标头。 日志: 这是安全标头: 这是Rampart的政策文件: 用户凭据在Java代码中设置: 原职务: 我已经用谷歌搜索这个错误好几天了,但我没有主意了。 代码由Axis2为基于此WSDL的SOAP Web服务生成:https