Elasticsearch 写入原理深入详解

栏目: 后端 · 发布时间: 5年前

内容简介:Elasticsearch写入流程,网上有视频、笔记等各种版本,本文结合最新官方文档进行重新梳理,节省大家的时间。思考如下几个问题?1、为什么Elasticsarch是近实时,而不是准实时?

1、题记

Elasticsearch写入流程,网上有视频、笔记等各种版本,本文结合最新官方文档进行重新梳理,节省大家的时间。

思考如下几个问题?

1、为什么Elasticsarch是近实时,而不是准实时?
2、为什么文档的CRUD操作是实时的?
3、为什么Elasticsearch能做到保证数据不丢失?
4、Refresh、flush的作用是什么? 什么时候使用?
5、Elasticsearch存储怎么让数据保存在磁盘上,而不是在内存上?

本文会给出以上问题的答案。

2、Elasticsearch写入核心概念

2.1 索引 index

Elasticsearch中的“索引”有点像关系数据库中的 数据库 。 它是存储/索引数据的地方。

2.2 分片 shard

“分片”是Lucene的一个 索引 。 它本身就是一个功能齐全的搜索引擎。

“索引”可以由单个分片组成,但通常由多个分片组成,一部分主分片、一部分副本分片。

ES默认5个主分片,1个副本分片;
副本分片的用途:(1)主节点故障时的故障转移;(2)增加的读取吞吐量。

2.3 分段 segment

每个分片包含多个“分段”,其中分段是倒排索引。
分段内的doc数量上限是2的31次方。
默认每秒都会生成一个segment文件.

在分片中搜索将依次搜索每个片段,然后将其结果合并到该分片的最终结果中。

查看索引中分段信息的方法:

1GET /test/_segments 

2.4 倒排索引

“倒排索引”是Lucene用于使数据可搜索的数据结构。

一图胜千言!如下:索引、分片、分段的 关系 一目了然。

Elasticsearch 写入原理深入详解

2.5 translog日志文件:

为了防止elasticsearch宕机造成数据丢失保证可靠存储,es会将每次写入数据同时写到translog日志中。

translog还用于提供 实时CRUD 。 当您尝试按ID检索,更新或删除文档时,它会首先检查translog中是否有任何最近的更改,然后再尝试从相关段中检索文档。 这意味着它始终可以实时访问最新的已知文档版本。

2.6、倒排索引是不可变的

写入磁盘的倒排索引永远不会改变。

好处:无需锁定,不用担心多进程操作更改 数据导致数据不一致 问题。

坏处:经常被问到的问题,更新了词典词库后,老的索引不能生效。如果要使其可搜索,则必须重建整个索引。建议:reindex操作。

2.7 分段不可变

分段是不可变的。更新文档时,它实际上只是将旧文档标记为已删除,并为新文档编制索引。合并过程还会清除这些旧的已删除文档。

3、Elasticsearch写入步骤拆解

步骤1:新document首先写入内存Buffer缓存中。
步骤2:每隔一段时间,执行“commitpoint”操作,buffer写入新Segment中。
步骤3:新segment写入文件系统缓存 filesystem cache。
步骤4:文件系统缓存中的index segment被fsync强制刷到磁盘上,确保物理写入。 此时,新segment被打开供search操作。
步骤5:清空内存buffer,可以接收新的文档写入。

官方解读地址:http://t.cn/EyhPQt5

这是传统意义的写入步骤,实际ES为保证

实时性 ,会做refresh操作。

4、Elasticsearch refresh和flush

4.1、refresh操作

相比于Lucene的提交操作,ES的refresh是相对 轻量级 的操作。

先将index-buffer中文档(document)生成的segment写到文件系统之中,这样避免了比较损耗性能io操作,又可以使搜索可见。

默认1s钟刷新一次,所以说ES是近实时的搜索引擎,不是准实时。

注意:实际需要结合自己的业务场景设置refresh频率值。调大了会优化索引速度。注意单位:s代表秒级。

1PUT /my_logs 2{ 3  "settings": { 4    "refresh_interval": "30s"  5  } 6} 

4.2、flush操作

新创建的document数据会先进入到index buffer之后,与此同时会将操作记录在translog之中,当发生refresh时ranslog中的操作记录并不会被清除,而是当数据从filesystem cache中被写入磁盘之后才会将translog中 清空

从filesystem cache写入磁盘的过程就是flush。

步骤1:当translog变得太大时 ,可以执行commit ponit操作。
步骤2:使用fsync刷新文件系统缓存,写入磁盘。
步骤3:旧缓冲区被清除。

flush操作如下:

1POST /_flush?wait_for_ongoing  

5、图解Elasticsearch写入持久化模型

Elasticsearch 写入原理深入详解

图的示意图要从上往下看。
1、当新的文档写入后,写入 index buffer的同时会写入translog。
2、refresh操作使得写入文档搜索可见;
3、flush操作使得filesystem cache写入磁盘,以达到持久化的目的。

6、小结

相信经过梳理,开篇几个问题的答案便非常清晰了。

知识的累积,需要过程,《高手》中尤其强调

第一手文档

的重要性。

第一手的

官方文档+源码 是根基,是最快、最准的方式。

推荐阅读

1、 Elasticsearch常见的5个错误及解决策略

Elasticsearch 写入原理深入详解

加入知识星球,更短时间更快习得更多干货!


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

垃圾收集

垃圾收集

琼斯 / 谢之易 / 人民邮电出版社 / 2004-4-1 / 45.00元

书围绕着动态内存自动回收的话题,介绍了垃圾收集机制,详细分析了各种算法和相关技术。 本书共12章。第1章首先介绍计算机存储器管理的演化和自动内存回收的需求,并引入了本书所使用的术语和记法。第2章介绍了3种“经典”的垃圾收集技术:引用计数(reference counting)、标记-清扫(mark-sweep)和节点复制(copying)。 随后的4章更详细地讨论了上述这些垃圾收集方式......一起来看看 《垃圾收集》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

XML、JSON 在线转换
XML、JSON 在线转换

在线XML、JSON转换工具

Markdown 在线编辑器
Markdown 在线编辑器

Markdown 在线编辑器