我想将一堆pandas数据框(大约一百万行和50列)索引到Elasticsearch中。
当寻找有关如何执行此操作的示例时,大多数人会使用elasticsearch-py的bulk
helper方法
,并向其传递处理连接的Elasticsearch类的实例以及使用pandas的dataframe创建的字典列表。orient
=’records’)方法
。可以预先将元数据作为新列插入数据框,例如,df['_index'] = 'my_index'
等等。
但是,我有理由不使用elasticsearch-
py库,而是想直接与Elasticsearch批量API对话,例如通过请求或其他方便的HTTP库。此外,df.to_dict()
不幸的是,在大型数据帧上速度非常慢,并将数据帧转换为字典列表,然后通过elasticsearch-
py将其序列化为JSON听起来像不必要的开销,例如dataframe.to_json()甚至在大数据框。
将熊猫数据框转换为批量API所需格式的简便快捷方法是什么?我认为朝着正确方向迈出的一步dataframe.to_json()
如下:
import pandas as pd
df = pd.DataFrame.from_records([{'a': 1, 'b': 2}, {'a': 3, 'b': 4}, {'a': 5, 'b': 6}])
df
a b
0 1 2
1 3 4
2 5 6
df.to_json(orient='records', lines=True)
'{"a":1,"b":2}\n{"a":3,"b":4}\n{"a":5,"b":6}'
现在,这是一个以换行符分隔的JSON字符串,但是,它仍然缺少元数据。将其放入其中的一种表演方式是什么?
编辑: 为完整起见,元数据JSON文档将如下所示:
{"index": {"_index": "my_index", "_type": "my_type"}}
因此,最后,批量API期望的整个JSON如下所示(在最后一行之后附加换行符):
{"index": {"_index": "my_index", "_type": "my_type"}}
{"a":1,"b":2}
{"index": {"_index": "my_index", "_type": "my_type"}}
{"a":3,"b":4}
{"index": {"_index": "my_index", "_type": "my_type"}}
{"a":5,"b":6}
同时,我发现了多种可能性,至少以合理的速度如何做到这一点:
import json
import pandas as pd
import requests
# df is a dataframe or dataframe chunk coming from your reading logic
df['_id'] = df['column_1'] + '_' + df['column_2'] # or whatever makes your _id
df_as_json = df.to_json(orient='records', lines=True)
final_json_string = ''
for json_document in df_as_json.split('\n'):
jdict = json.loads(json_document)
metadata = json.dumps({'index': {'_id': jdict['_id']}})
jdict.pop('_id')
final_json_string += metadata + '\n' + json.dumps(jdict) + '\n'
headers = {'Content-type': 'application/json', 'Accept': 'text/plain'}
r = requests.post('http://elasticsearch.host:9200/my_index/my_type/_bulk', data=final_json_string, headers=headers, timeout=60)
除了使用熊猫的to_json()
方法,还可以使用to_dict()
以下方法。这在我的测试中稍慢一些,但并没有很多:
dicts = df.to_dict(orient='records')
final_json_string = ''
for document in dicts:
metadata = {"index": {"_id": document["_id"]}}
document.pop('_id')
final_json_string += json.dumps(metadata) + '\n' + json.dumps(document) + '\n'
当大数据集运行此,人们可以通过更换Python的默认保存了两三分钟json
与库ujson或rapidjson通过安装它,然后import ujson as json
或import rapidjson as json
分别。
通过将步骤的顺序执行替换为并行步骤,可以实现更大的加速,从而在请求等待Elasticsearch处理所有文档并返回响应时,读取和转换不会停止。这可以通过线程,多处理,Asyncio,任务队列等来完成,但这不在此问题的范围内。
如果您碰巧找到一种更快地执行to-json-conversion的方法,请告诉我。
问题内容: 我在Android应用程序上使用Firebase,我知道如何使用EventListener从数据库中获取数据。到目前为止。 我的问题是:我有一个ReciclerView,它显示数据中的信息,但仅当我修改数据库时才显示。如果我关闭该应用程序然后再次打开,它什么也不会显示。然后,我进行一些修改,并将所有元素显示在容器中。 有什么方法可以加载数据而无需等待事件,而是手动获取? 先感谢您。 更
问题内容: 我想从我的Node.js应用程序中的Mongoose设置中检索一些数据。我注意到,无论我写什么作为字段选择,我总是会得到该字段。有没有一种方法不可以获取它?我现在是这样的: 并记录下包含该字段的结果。 问题答案: 必须明确排除。例如,
问题内容: 我正在尝试采用一个数据框并将其转换为特定的json格式。 这是我的数据框示例: 这是我想转换成的json格式: 注意这是字典列表。我几乎在下面的代码中: 但是,该行还包含这样的索引: 请注意,这是一个字典,它还包含两次索引(在第一个字典中为索引,在第二个字典中为“ id”!对您有所帮助。 问题答案: 您可以使用
问题内容: 摘要:这不起作用: 但是这样做: 为什么? 再生产: 这不起作用: 但是这样做: 链接到笔记本 我的问题是: 为什么只有第二种方式起作用?我似乎看不到选择/索引逻辑的差异。 版本是0.10.0 编辑:这不应该再这样了。从0.11版开始,提供。参见此处:http : //pandas.pydata.org/pandas- docs/stable/indexing.html 问题答案: 大
问题内容: 我需要使用具有多个索引的大型数据框,因此我尝试创建一个数据框以了解如何将其存储在hdf5文件中。数据框是这样的:(在前2列中有multi索引) 我正在使用pandas.to_hdf,但在尝试选择组中的数据时会创建“固定格式存储”: 它返回一些错误,主要问题是 然后我试图像这样追加DataFrame: 那应该创建一个表,但这给了我另一个错误: 所以我需要的代码将数据帧存储在一个表中HDF
问题内容: 我是Java新手。我想将ResultSet数据插入JavaFX TableView,但我不会使用中间类。我可以将ResultSet行插入到TableView行中作为对象吗? 这是我使用中间类单元的代码 控制者 问题答案: 您需要一些东西来保存数据。某些东西(您称为“中间类”)将成为您的的数据类型。 它不必一定是您创建的类,但是如果您仅使用一般性的东西,那么您的代码将很难理解。例如,您可