1.bulk批量导入数据
但问题是这方法是先定义一定格式的json文件,然后再用curl命令去执行Elasticsearch的_bulk来批量插入,所以得把数据写进json文件,然后再通过批处理,执行文件插入数据, 另外在生成json文件,文件不能过大,过大会报错,所以建议生成10M一个文件curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\Bin\Debug\testdata\437714060.json
curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\Bin\Debug\testdata\743719428.json
curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\Bin\Debug\testdata\281679894.json
curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\Bin\Debug\testdata\146257480.json
curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\Bin\Debug\testdata\892018760.json
2. github上找到了一个数据导入导出工具
github上找到了一个数据导入导出工具,算是基本上解决了这个问题,直接把数据从原来的index里面取出来然后重新录入到新的index里面,这样省去了数据解析的过程,节约了不少时间。
下面是问题的解决步骤:
首先安装一下elasticsearch-knapsack(数据导入导出工具)
以下是github地址: