Elasticsearch搜索引擎
Elasticsearch是一个基于Apache Lucene(TM)的开源搜索引擎。无论在开源还是专有领域,Lucene可以被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库。
简介
Elasticsearch
是一个基于Apache Lucene(TM)
的开源搜索引擎。无论在开源还是专有领域,Lucene
可以被认为是迄今为止最先进、性能最好的、功能最全的搜索引擎库。
但是,Lucene
只是一个库。想要使用它,你必须使用Java
来作为开发语言并将其直接集成到你的应用中,更糟糕的是,Lucene
非常复杂,你需要深入了解检索的相关知识来理解它是如何工作的。
Elasticsearch
也使用Java
开发并使用Lucene
作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API
来隐藏Lucene
的复杂性,从而让全文搜索变得简单。
安装
Elasticsearch
需要Java8
的运行环境。因此无论你是windows
平台还是linux
平台。先确保Java
环境的安装。可以查看Oracle
官网查看,这里不做详述。
Java
环境安装完毕之后就可以去下载Elasticsearch
。这里我是以Linux
的环境进行安装。在官网的下载页面https://www.elastic.co/downloads/elasticsearch
这里我下载的是6.2.3的版本。6.0版本更新的还是很多的,这在后面会提到。下载tar
包:
$ curl -L -O https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.2.3.tar.gz
解压下载的安装包:
$ tar -xvf elasticsearch-6.2.3.tar.gz
进入解压后的文件夹后我们就可以启动Elasticsearch
$ ./elasticsearch
如果启动成功你会看到这样的:
启动一个新的窗口 因为服务的默认端口是9200 当然可以自行设置 http
请求会返回如下
$ curl -X GET 'localhost:9200/?pretty'

基本概念
集群(Cluster)
一个集群是由一个或多个节点(服务器)组成的,通过所有的节点一起保存你的全部数据并且提供联合索引和搜索功能的节点集合。每个集群有一个唯一的名称标识,默认是“elasticsearch”。这个名称非常重要,因为一个节点(Node)只有设置了这个名称才能加入集群,成为集群的一部分。
确保你没有在不同的环境下重用相同的名称,否则你最终可能会将节点加入错误的集群。例如你可以使用dev
,stage
和prod
来分别给开发,展示和生产集群命名。
一个集群中只有一个节点是有效的并且是非常好的。所以这样的话,你可能需要部署多个集群并且每个集群有它们唯一的集群名称。
索引(Index)
一个索引就是含有某些相似特性的文档的集合。例如,你可以有一个用户数据的索引,还有其他的有规则数据的索引。一个索引被一个名称(必须都是小写)唯一标识,并且这个名称被用于索引通过文档去执行索引,搜索,更新和删除操作。
这里的索引其实你就可以理解为MySQL
中的数据库,因此你在一个集群中可以定义任意多的Index
使用
在开始使用ES
之前可以大概了解一下他与我们平时的关系型数据库的对比
MySQL | ES |
---|---|
Database(数据库) | Index (索引) |
Table(表) | Type (类型) |
Row(行) | Document (文档) |
Index(索引) | Everything Indexed by default (所有字段都被索引)) |
SQL(结构化查询语言) | Query DSL(查询专用语言) |
值得注意的是:Type在6.0.0版本中已经不赞成使用
所以在6.0版本以后一个doc也就是一个文档是一个可被索引的数据的基础单元。我们完全可以通过类似/index/doc/:id
这样的形式表现出来
基本命令
1.首先我们可以去了解一个集群的阿康状况 使用_cat API
去查看(包括查看节点索引这些都会使用这个API
)
$ curl -X GET 'localhost:9200/_cat/health?v&pretty'
pretty参数 是返回格式的美化 下面不做太多介绍
响应的结果会是这样:
epoch timestamp cluster status node.total node.data shards pri relo init unassign pending_tasks max_task_wait_time active_shards_percent
1475247709 17:01:49 elasticsearch green 1 1 0 0 0 0 0 0 - 100.0%
注意这里的状态为green
这里的状态有三种 red
、yellow
、green
- green - 一切运行正常(集群功能齐全)
- yellow - 所有数据是可以获取的,但是一些复制品还没有被分配(集群功能齐全)
- red 一些数据因为一些原因获取不到(集群部分功能不可用)
2.查看节点
$ curl -X GET 'localhost:9200/_cat/nodes?v&pretty'
返回的结果为:
ip heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name
127.0.0.1 16 94 3 0.01 0.01 0.02 mdi * XJCA34j
这里可以看到返回的只有一个名为XJCA34j
的节点 它也是目前集群中唯一的节点
3.列出所有索引
$ curl -X GET 'localhost:9200/_cat/indices?v&pretty'
返回的结果为:
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
使用事例
1.先尝试创建一个索引
$ curl -X PUT 'localhost:9200/user?pretty&pretty'
返回的结果为:
{
"acknowledged" : true,
"shards_acknowledged" : true,
"index" : "user"
}
再列出所有的索引
$ curl -X GET 'localhost:9200/_cat/indices?v&pretty'
2.插入一条数据(文档)
curl -X PUT 'localhost:9200/user/doc/1?pretty&pretty' -H 'Content-Type: application/json' -d
'{"name": "GeekGhc"}'
返回的结果为:
{
"_index" : "user",
"_type" : "doc",
"_id" : "1",
"_version" : 1,
"result" : "created",
"_shards" : {
"total" : 2,
"successful" : 1,
"failed" : 0
},
"_seq_no" : 0,
"_primary_term" : 1
}
从返回的结果我们可以看到这条数据的基本信息 如是在user
这个index
type
为doc
并且id
为1
3.获取一条数据
那么查看这条数据时执行
$ curl -X GET 'localhost:9200/user/doc/1?pretty&pretty'
返回的结果为:
{
"_index" : "user",
"_type" : "doc",
"_id" : "1",
"_version" : 1,
"found" : true,
"_source" : { "name": "GeekGhc" }
}
4.修改一条数据
其实修改和插入形式是一样的 如果存在那个id
那么就会更新之前文档的数据 反之则会增加一条文档数据
curl -X PUT 'localhost:9200/user/doc/1?pretty&pretty' -H 'Content-Type: application/json' -d
'{"name": "JellyBean"}'
5.删除一条索引(可以理解为删除一个数据库)
$curl -X DELETE 'localhost:9200/customer?pretty&pretty'
在此列出所有索引即可查看到最终效果
6.批处理数据
往往我们会需要批处理一些数据 比如我们需要插入几条数据 这个时候我们需要使用_bulk API
举个例子来说就是去插入两条数据
curl -X POST 'localhost:9200/user/doc/_bulk?pretty&pretty' -H 'Content-Type: application/json' -d'
{"index":{"_id":"1"}}
{"name": "Jelly One" }
{"index":{"_id":"2"}}
{"name": "Jelly Two" }
'
当然也可以同时进行插入和删除等操作
搜索
在使用搜索之前我们需要一批数据 这里我引用别人的一段json
数据 其生成工具是www.json-generator.com
json-generator 里面会有字段的定义语法 对着它的帮组文档可以定义你需要的字段
你可以从这里进行下载
下载之后放入当前目录我们就可以加载到集群中
$ curl -H "Content-Type: application/json" -XPOST 'localhost:9200/bank/account/_bulk?pretty&refresh' --data-binary "@accounts.json"
接着再去查看所有索引
$ curl -X GET 'localhost:9200/_cat/indices?v&pretty'
这样的话我们就在bank
这个Index
中的account
类型(type)
下插入了1000条数据
搜索API
在执行搜索时我们需要的API
是_search
在执行搜索时会有两种方式 一种是通过url
方式 而另外一种则是通过将请求放入请求体中
这里更推荐所有的请求放入请求体 这样更为友好和解读 就以一个简单的搜索来说
如果是url
方式 Curl
请求
$ curl -X GET 'localhost:9200/bank/_search?q=*&sort=account_number:asc&pretty&pretty'
如果是放入请求体中:
$ curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": { "match_all": {} },
"sort": [
{ "account_number": "asc" }
]
}
'
两者返回结果为:
{
"took" : 63,
"timed_out" : false,
"_shards" : {
"total" : 5,
"successful" : 5,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 1000,
"max_score" : null,
"hits" : [ {
"_index" : "bank",
"_type" : "account",
"_id" : "0",
"sort": [0],
"_score" : null,
"_source" : {"account_number":0,"balance":16623,"firstname":"Bradshaw","lastname":"Mckenzie","age":29,"gender":"F","address":"244 Columbus Place","employer":"Euron","email":"bradshawmckenzie@euron.com","city":"Hobucken","state":"CO"}
}, {
"_index" : "bank",
"_type" : "account",
"_id" : "1",
"sort": [1],
"_score" : null,
"_source" : {"account_number":1,"balance":39225,"firstname":"Amber","lastname":"Duke","age":32,"gender":"M","address":"880 Holmes Lane","employer":"Pyrami","email":"amberduke@pyrami.com","city":"Brogan","state":"IL"}
}, ...
]
}
}
对于返回结果的字段的解释如下:
- took -
ES
执行此次搜索所用的时间(单位:毫秒) - timed_out - 告诉我们此次搜索是否超时
- _shards - 告诉我们搜索了多少分片,还有搜索成功和搜索失败的分片数量
- hits - 搜索结果
- hits.total - 符合搜索条件的文档数量
- hits.hits - 实际返回的搜索结果对象数组(默认只返回前10条)
- hits.sort - 返回结果的排序字段值(如果是按
score
进行排序,则没有) - hits._score 和 max_score - 目前先忽略这两个字段
查询语法
和很多关系型数据库一样 在查询方面 ES
也提供了很多查询方法
举个例子来说
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": { "match_all": {} },
"sort": [
{ "account_number": "asc" }
],
"from": 10,
"size": 1
}
'
这里我一下子列出了几个参数
match_all
部分简单指定了我们想去执行的查询类型,这里意思就是在索引中搜索所有的文档。sort
来指定搜索结果的顺序。size
来指定返回的结果数量。rom
参数(从0开始)指定了从哪个文档索引开始。
这个和mysql
中的limit
和offset
是一个意思。
还有就是在Laravel
中有一种字段映射,在MySQL
中返回指定字段 那么只需要在请求体中加入_source
属性即可:
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": { "match_all": {} },
"_source": ["account_number", "balance"]
}
'
这样的话我们只会返回account_number
和balance
两个字段
关键字搜索
这是为了应对全文搜索这样的应用场景 下面来搜索address
字段里有mill
这个单词的文档集
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": { "match": { "address": "mill" } }
}
'
当然我们回遇到多个查询条件 如满足关键词既包含mail
也包含com
关键词那么其语法为:
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": {
"bool": {
"must": [
{ "match": { "address": "mill" } },
{ "match": { "address": "com" } }
]
}
}
}
'
对应与的操作还有或操作 即包含mail
或com
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": {
"bool": {
"should": [
{ "match": { "address": "mill" } },
{ "match": { "address": "com" } }
]
}
}
}
'
当然还有非这样的操作 即没有这两个关键词
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": {
"bool": {
"must_not": [
{ "match": { "address": "mill" } },
{ "match": { "address": "com" } }
]
}
}
}
'
从上面三个事例可以看出bool
下其实包含了三种组合 must
should
must_not
对应着与或非 你可以随意组合这些条件
判断过滤
在查询语言中经常会遇到一些大于等于小于这些判断过滤 这在ES
中的表现为
curl -X GET 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": {
"bool": {
"must": { "match_all": {} },
"filter": {
"range": {
"balance": {
"gte": 20000,
"lte": 30000
}
}
}
}
}
}
'
例使用bool
查询返回所有余额在20000到30000之间的账户(包含边界)。换句话说,我们想查询账户余额大于等于20000并且小于等于30000的用户。
使用ik
分词进行搜索
为了实现分词 在github
上根据文档进行安装https://github.com/medcl/elasticsearch-analysis-ik
因为我这里版本是6.2.3的 在当前目录可以执行
$ ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.3/elasticsearch-analysis-ik-6.2.3.zip
安装完毕之后重启ES
在去执行list
命令查看是否有这个plugin
$ ./bin/elasticsearch-plugin list
下面可以进行一次关键词搜索 需指定高亮的字段
curl -X POST 'localhost:9200/bank/_search?pretty' -H 'Content-Type: application/json' -d'
{
"query": { "match": { "address" : "993" } },
"highlight" : {
"pre_tags" : ["<tag1>", "<tag2>"],
"post_tags" : ["</tag1>", "</tag2>"],
"fields" : {
"address" : {}
}
}
}'
这里我们就是去查找address
字段含有993
的文档数据
最后返回的结果为:
{
"took" : 187,
"timed_out" : false,
"_shards" : {
"total" : 5,
"successful" : 5,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 2,
"max_score" : 4.388994,
"hits" : [
{
"_index" : "bank",
"_type" : "account",
"_id" : "766",
"_score" : 4.388994,
"_source" : {
"account_number" : 766,
"balance" : 21957,
"firstname" : "Thomas",
"lastname" : "Gillespie",
"age" : 38,
"gender" : "M",
"address" : "993 Williams Place",
"employer" : "Octocore",
"email" : "thomasgillespie@octocore.com",
"city" : "Defiance",
"state" : "MS"
},
"highlight" : {
"address" : [
"<tag1>993</tag1> Williams Place"
]
}
},
{
"_index" : "bank",
"_type" : "account",
"_id" : "58",
"_score" : 4.388994,
"_source" : {
"account_number" : 58,
"balance" : 31697,
"firstname" : "Marva",
"lastname" : "Cannon",
"age" : 40,
"gender" : "M",
"address" : "993 Highland Place",
"employer" : "Comcubine",
"email" : "marvacannon@comcubine.com",
"city" : "Orviston",
"state" : "MO"
},
"highlight" : {
"address" : [
"<tag1>993</tag1> Highland Place"
]
}
}
]
}
}