windows下载zip
linux下载tar
下载地址:https://www.elastic.co/downloads/elasticsearch
解压后运行:bin/elasticsearch (or bin\elasticsearch.bat on Windows)
检查是否成功:访问 http://localhost:9200
linux下不能以root用户运行,
普通用户运行报错:
java.nio.file.AccessDeniedException
原因:当前用户没有执行权限
解决方法: chown linux用户名 elasticsearch安装目录 -R
例如:chown ealsticsearch /data/wwwroot/elasticsearch-6.2.4 -R
PS:其他Java软件报.AccessDeniedException错误也可以同样方式解决,给 执行用户相应的目录权限即可
2|0代码实例
如下的代码实现类似链家网小区搜索功能。
从文件读取小区及地址信息写入es,然后通过小区所在城市code及搜索关键字 匹配到对应小区。
代码主要包含三部分内容:
1.创建索引
2.用bulk将批量数据存储到es
3.数据搜索
注意:
代码的es版本交低2.xx版本,高版本在创建的索引数据类型有所不同
#coding:utf8 from __future__ import unicode_literals import os import time import config from datetime import datetime from elasticsearch import Elasticsearch from elasticsearch.helpers import bulk class ElasticSearch(): def __init__(self, index_name,index_type,ip ="127.0.0.1"): ''' :param index_name: 索引名称 :param index_type: 索引类型 ''' self.index_name =index_name self.index_type = index_type # 无用户名密码状态 #self.es = Elasticsearch([ip]) #用户名密码状态 self.es = Elasticsearch([ip],http_auth=('elastic', 'password'),port=9200) def create_index(self,index_name="ftech360",index_type="community"): ''' 创建索引,创建索引名称为ott,类型为ott_type的索引 :param ex: Elasticsearch对象 :return: ''' #创建映射 _index_mappings = { "mappings": { self.index_type: { "properties": { "city_code": { "type": "string", # "index": "not_analyzed" }, "name": { "type": "string", # "index": "not_analyzed" }, "address": { "type": "string", # "index": "not_analyzed" } } } } } if self.es.indices.exists(index=self.index_name) is True: self.es.indices.delete(index=self.index_name) res = self.es.indices.create(index=self.index_name, body=_index_mappings) print res def build_data_dict(self): name_dict = {} with open(os.path.join(config.datamining_dir,'data_output','house_community.dat')) as f: for line in f: line_list = line.decode('utf-8').split('\t') community_code = line_list[6] name = line_list[7] city_code = line_list[0] name_dict[community_code] = (name,city_code) address_dict = {} with open(os.path.join(config.datamining_dir,'data_output','house_community_detail.dat')) as f: for line in f: line_list = line.decode('utf-8').split('\t') community_code = line_list[6] address = line_list[10] address_dict[community_code] = address return name_dict,address_dict def bulk_index_data(self,name_dict,address_dict): ''' 用bulk将批量数据存储到es :return: ''' list_data = [] for community_code, data in name_dict.items(): tmp = {} tmp['code'] = community_code tmp['name'] = data[0] tmp['city_code'] = data[1] if community_code in address_dict: tmp['address'] = address_dict[community_code] else: tmp['address'] = '' list_data.append(tmp) ACTIONS = [] for line in list_data: action = { "_index": self.index_name, "_type": self.index_type, "_id": line['code'], #_id 小区code "_source": { "city_code": line['city_code'], "name": line['name'], "address": line['address'] } } ACTIONS.append(action) # 批量处理 success, _ = bulk(self.es, ACTIONS, index=self.index_name, raise_on_error=True) #单条写入 单条写入速度很慢 #self.es.index(index=self.index_name,doc_type="doc_type_test",body = action) print('Performed %d actions' % success) def delete_index_data(self,id): ''' 删除索引中的一条 :param id: :return: ''' res = self.es.delete(index=self.index_name, doc_type=self.index_type, id=id) print res def get_data_id(self,id): res = self.es.get(index=self.index_name, doc_type=self.index_type,id=id) # # 输出查询到的结果 print res['_source']['city_code'], res['_id'], res['_source']['name'], res['_source']['address'] def get_data_by_body(self, name, city_code): # doc = {'query': {'match_all': {}}} doc = { "query": { "bool":{ "filter":{ "term":{ "city_code": city_code } }, "must":{ "multi_match": { "query": name, "type":"phrase_prefix", "fields": ['name^3', 'address'], "slop":1, } } } } } _searched = self.es.search(index=self.index_name, doc_type=self.index_type, body=doc) data = _searched['hits']['hits'] return data if __name__=='__main__': #数据插入es obj = ElasticSearch("ftech360","community") obj.create_index() name_dict, address_dict = obj.build_data_dict() obj.bulk_index_data(name_dict,address_dict) #从es读取数据 obj2 = ElasticSearch("ftech360","community") obj2.get_data_by_body(u'保利','510100')
以上就是全部知识点内容,感谢大家的阅读和对小牛知识库的支持。
本文向大家介绍详解Vue.js入门环境搭建,包括了详解Vue.js入门环境搭建的使用技巧和注意事项,需要的朋友参考一下 vue这个新的工具,确实能够提高效率,在经历的一段时间的摧残之后,终于能够有一个系统的认识了,下面就今天的收获做一个总结,也是vue入门的精髓: 1.要使用vue来开发前端框架,首先要有环境,这个环境要借助于node,所以要先安装node,借助于node里面的npm来安装需要的依
本文向大家介绍详解.Net Core + Angular2 环境搭建,包括了详解.Net Core + Angular2 环境搭建的使用技巧和注意事项,需要的朋友参考一下 本文介绍了.Net Core + Angular2 环境搭建,具体如下: 环境搭建: 1)node.js版本>5.0,NPM版本>3.0,TypeScript版本>2.0(全装最新版就好了) 2)安装NTVS 1.2(node
实践的前提是搭建环境,本节的几个小节将介绍在几种常见操作平台上 OpenResty 的安装。 为了降低用户安装门槛,对于不同系统安装,部分章节存在比较大的重复内容。读者只需要选择自己需要的平台并尝试安装即可。
在进行OpenFOAM编程之前,用户需要搭建编程环境。 首先用户需要确保手边有一个编译好OpenFOAM的Linux系统,也可以在这里下载编译好的虚拟机。虚拟机的意思是在用户的windows中单独存放一个linux系统。这样用户就不需要再单独安装linux系统。用户首先打开虚拟机,然后按住Ctrl+Alt+T三个按键打开终端,通过mkdir命令创建新的文件夹,名称为OpenFOAM_tut: $
本文向大家介绍Docker搭建php环境教程详解,包括了Docker搭建php环境教程详解的使用技巧和注意事项,需要的朋友参考一下 docker 安装 使用官方提供的安装脚本,安装最新版的Docker curl -sSL https://get.docker.com/ | sh 安装完成后,通过如下命令启动Docker的守护进程,并让它随系统启动自动加载 sudo service docker s
在 Windows 上搭建环境 从 1.9.3.2 版本开始,OpenResty 正式对外同时公布维护了 Windows 版本,其中直接包含了编译好的最新版本 LuaJIT。由于 Windows 操作系统自身相对良好的二进制兼容性,使用者只需要下载、解压两个步骤即可。 打开 http://openresty.org,选择左侧的 Download 连接,这时候我们就可以下载最新版本的 OpenRes
和LAMP不同的是LNMP中的N指的是是Nginx(类似于Apache的一种web服务软件)其他都一样。目前这种环境应用的也是非常之多。Nginx设计的初衷是提供一种快速高效多并发的web服务软件。在静态页面的处理上Nginx的确胜Apache一筹,然而在动态页面的处理上Nginx并不比Apache有多少优势。但是,目前还是有很多爱好者对Nginx比较热衷,随着Nginx的技术逐渐成熟,它在web
经过前部分章节的学习,你已经掌握了linux的基础知识了。但是想成为一名系统管理员恐怕还有点难度,因为好多单位招聘这个职位的时候都要求有一定的工作经验。然而真正的经验一天两天是学不来的,是靠长时间积累得来的。不过你也不要灰心,所谓的工作经验无非也就是一些运行在linux系统上的软件的配置以及应用。就好像是装在windows上的office一样,大部分人都会装,但是十分会用的却不多。是因为offic