企业内部使用的elasticsearch是提供垂直搜索的一种方案,什么是垂直搜索呢。
先抄个百度百科:
垂直搜索引擎是针对某一个行业的专业搜索引擎,是搜索引擎的细分和延伸,是对网页库中的某类专门的信息进行一次整合,定向分字段抽取出需要的数据进行处理后再以某种形式返回给用户。垂直搜索是相对通用搜索引擎的信息量大、查询不准确、深度不够等提出来的新的搜索引擎服务模式,通过针对某一特定领域、某一特定人群或某一特定需求提供的有一定价值的信息和相关服务。其特点就是“专、精、深”,且具有行业色彩,相比较通用搜索引擎的海量信息无序化,垂直搜索引擎则显得更加专注、具体和深入。
其实说白了就一句话,垂直搜索是在企业内部使用的搜索引擎。这种搜索引擎的特点是,内容可能是一些结构化的数据,而不像大搜索那样都是杂乱的内容。
一般被拿来解决一些什么样的问题:
1.数据库字段太多,查询太慢,索引没有办法再做优化
2.数据库一个count就拖死全表。
3.mysql的limit翻到几十几百万页后实在是太慢
4.数据库like实在太慢,每次like整个服务器cpu内存飙高,拖慢整个线上服务
5.想要对外/内提供db里的数据的全文检索服务。
6.提供日志(程序运行)查询功能。
所以这个工具对于海量的订单、工单、仓库调拨单、用户信息的系统非常有用。而这些单据什么的对于电商来说则非常重要。其实也不只是电商,大多数互联网公司内的数据不就是这样的“单据”么。
来针对上面几方面的问题逐一进行说明:
数据库方面
mysql对于一些较为固定,字段较少的查询方式,可以通过简单的增加索引来完成优化,在大多数公司,即使你对索引优化不熟悉,也有专门的dba来帮你完成一些简单的优化。甚至有些电商公司要求程序中不允许出现orm,必须用纯sql来完成业务逻辑,这样dba可以直接介入到代码中来。
不过到字段太多的时候这招就不灵了,字段越多,查询自然就越慢(比如单条记录可能都超过了4k什么,甚至有些oracle的表里,一个字段就有几兆信息,当然几兆信息的这种这里也解决不了,嗯)。
mysql表在普通查询过程中,比如select * from xxx limit 100w, 100;
这种,小网站随便写sql,可能不会体会到翻页的痛。但你在一个单表3000w的系统中写了limit 10000000, 10。那数据库服务器就哭了。因为实际上数据库为了取出你想要的那几条数据,需要把所有的数据也就是10000010条都取到内存中,复杂一点的select再加上order by则可能会同时涉及到多次磁盘读取和文件排序。慢上加慢。
除此之外,现在最流行的innodb之类的存储引擎在计算count的时候非常的慢。当然了,网络上会有人从乱七八糟的文章里看到换myisam应该就会更快的结论,但这其实是错的。如果在select语句的where条件中也有表达式时,这两种存储引擎本质上都是一样的,都会很慢很慢。
还有mysql的like,其实没什么玄幻的,每次做like本质还是查询内容去和数据库字段做字符串匹配。非常地慢。
现在一般的互联网系统都是普遍的写少读多的系统,写/读搞不好会有1/5以上?但因为数据量庞大,为了读取效率而去做拆表或者拆库的话,有时候实在是有点得不偿失。而且拆表拆库对业务代码来说也并不透明,还可能会对本来支持的功能造成额外的影响。只是为了查询而去拆分的话,不是很合适。
上面这些问题,es都可以解决。企业里对数据的查询一般可以分为三种:列表查询、详情查询和统计查询。看名字也可以理解的差不多了,列表一般就是列表页对应的查询,详情查询一般就是具体id对应的详情查询,而统计查询一般都是在看一些数值之类的报表,也就是一堆count值。
这三种查询里,mysql做起来最困难的是1和3,即列表查询和统计查询。列表查询这种场景也会对应各种各样的查询条件,例如字段等于/小于/大于/不等判断,或者像字符串的严格匹配/前后缀模糊查询,时间字段的范围查询,in查询等等。这些查询都可以翻译为es中的bool查询,举一个简单的例子:
{
"from" : 0,
"size" : 15,
"query" : {
"bool": {
"must" : [{"range" : {"create_time" : {"from":"2016-08-11T00:00:00+0800","to":"2016-08-11T23:59:00+0800"}}},{"term" : {"user_id" : "37540"}},{"terms" : {"status" : [2,1,0]}}]
}
},
"sort" : [{"create_time" : "desc"}],
"highlight" : {
}
}
例如上面这个es中的bool查询,就是从这种sql翻译过来的:
select * from db/table where create_time between ('2016-08-11 00:00:00' and '2016-08-11 23:59:59')
and user_id = 37540 and status in (2, 1, 0);
对应到业务里,常用的查询其实大多数都是这些很简单的条件并列,A && B && C && D。所以翻译起来也比较简单。
单表的count放在es里做也非常的快,为什么呢?因为es本身会把单个字段的一种值当作一个term,然后会记录这个term出现的所有文档和出现次数。举个例子,我们公司的业务,你可能会去查询某个业务线下的所有工单。那么查询条件就类似于where business_type is 6
这样。可能只需要一毫秒就返回了结果。很费解是不是?其实es也只是去读了一下这个business_type是6的term出现的文档数。逻辑上是很简单的。
这是不是说明es就是万能的了?
并不是。
首先是翻页的问题,es里有上亿数据,翻到最后一页的时候还是会比较慢,并且会影响到整个系统的load,然后系统响应变慢。因为其原理还是拿一堆数据来做merge。
从传统的sql思维翻译到es的dsl过程也稍微有点痛苦。因为es毕竟是从搜索引擎的角度去做这些事情,所以如果你当DB来用的话,其DSL设计就显得很别扭。虽然有了上面的转换规则,但实际上业务转换起来并没有这么方便,比如在通常的查询里还可能会有where a = 1 or b = 2
。显然想转成DSL就没有这么方便了。
es不是数据库,所以如果你想要实现联表查询也会变得很麻烦。如果你还想实现事务,我劝你还是别想了。
在企业里用es提供查询服务的话,一般都会做一层查询封装。直接提供sql接口。例如下面的这个es插件:
但插件也是人写的,并不是所以的特性都能很好的支持,比如join啊什么的。所以也有一些公司的人会用druid之类的东西做一个sql parser层,然后来支持这些乱七八糟的需求。
不过即使是直接用这种插件,也不能认为它就能让你一劳永逸,你还是需要对es内部的机制(例如mapping
)和通常的查询方式(term/query_string/wild_card
等)很了解才行。
比如你必须知道wildcard查询必须对字符串字段设置为not_analyzed
。你还得知道term什么时候代表的是分词后的词,什么时候代表的是整个字段的值。
在了解了这些之后才会了解到es的高性能like,其实也还是有一些限制。例如输入的字符串会被分词,这也就是说,想要高性能的时候只能用es默认提供的基于词的字符串like,而且一旦分词,你就没办法实现类似sql里的 x= "Hello world"这种准确匹配的逻辑。也就是说,你在es里查询hello world,hello world fuck也会出现在你的结果当中。不过这个对于大多数的业务来说实际上是无所谓的~
所以懒还是偷不了的orz。在你了解所有特性的时候,这些工具才能切实地帮助到你。这时候即使你想自己写一个,也并不是那么麻烦。
检索服务方面
搜索是人类的自然需求。
如果不是的话,那Google和百度就不会诞生了。毕竟现在是信息爆炸的时代呐。
而检索/搜索的基本原理就是对语句进行分词,然后再形成倒排索引,再根据词项出现次数对文档进行打分,最终按分数倒序展示给用户。
好几年前大家用php做个论坛的时候,搜索帖子就已经是很普遍的需求了。php程序员一般首先冒出来的想法是使用sphinx来解决问题,不过这个工具对于小公司来说也确实足够了。
而对于真海量数据的公司来说,一个单机的方案很快就会遇到瓶颈,而去寻求或自行开发更好的解决方案。
其实在es之前solr应该要更流行一些吧(瞎说的),不过solr的配置还是稍微麻烦,而es的集群搭建只要改改yml就好了(拍飞
有了es以后,集群便可以非常方便地进行动态扩展。只要加硬盘加机器改配置就好啦,因为本身的副本分布策略比较科学。所以只要别一半以上的节点都挂掉,数据就不会丢失。而且还会在某些结点挂掉的时候自动进行分片relocate。
由于es本身带的分词不是很科学,这样的话对doc打分可能会有一些影响。比如中国人可能不正确地分成了中/国人之类的。现在很多人会选择以插件的形式把ik分词器之类的插件挂载到es上来改善分词效果。这些插件的本质其实还是一个非常庞大的中文词库,没什么可说的。es内部设计有链接可以直接查看语句的分词结果,可以方便地直接查看效果。
所以你要是有几亿的文档需要做些检索,那五六台配置不错的es机器就足够了,甚至都不用ssd硬盘哦~
日志方面
企业里的系统一般都是分布式系统,所以无论是接入,还是api,还是db,都不太可能在一台机器上完成需求。先不说他们是怎么从一台机器横向扩展到现在这样的规模的。事实是我们的面前已经有这么多的机器了。
对于某一个服务模块来说,多台机器最麻烦的就是去查问题。在没有日志系统的洪荒时代,程序员大概只能登陆到机器去一台一台寻找可能的错误日志,然而因为负载均衡算法(比如可能是一致性哈希望/随机/RR/WR)的问题,可能一个用户在一次访问会话(session)中的请求都不是一台而是多台机器完成的响应。
要吐血了。
所以日志系统的工作就是把日志汇集到一起,并提供统一的查询入口。当然,也有人会参考M/R的思想去实现了一个分布式的grep。不过这是邪道。在干净的网页上看日志多爽啊。
要收集日志一般会自行搭建一个elk平台,elasticsearch/logstash/kibana必不可少。国内也有人专门做了一个网站
来做一些科普工作,还挺不错的。不过拿来的东西总会有那么一些问题,比如kibana里的按地图出数据默认用的是googlemap,在墙内使会有些问题,这个问题github上也有人已经解决了,相信你可以搜得到。再比如logstash这个程序可能只考虑了简单的收集 ,如果是大公司的业务讲究一个严谨。例如他们想要对日志收集端的资源使用做一些限制,不能让你随便占用系统资源而影响到业务系统。再比如他们还希望日志不要因为网络闪断之类的问题导致日志丢失什么的,所以还可能会在logstash后面再加一个kafka/redis。不管怎么说,工作基础还是elk。或者是e自己的l和自己的k。
如果是正儿八经的日志系统的话还有一个问题,因为海量的数据和海量的访问,日志的数据量一般都非常地庞大。所以一般数据都会有一个过期时间,对于我们这里来说,日志数据其实一般也就一周或者一个月。毕竟即使是一个边缘部门,一周的日志也都已经几个亿(100+GB)了。
查询起来你也不希望它太慢,所以还是尽量把日志索引的大小控制在一个范围内。当然,也有按照日期来生成索引的。每一天在一个独立的索引下,这样查询性能也会好一些。
同时又是因为这海量的数据,你在写入到es的时候必须使用bulk端口,相信使用过es的人都知道使用和不使用分别意味着什么。
以上。