Elasticsearch写入原理(1)--数据底层

2021-05-18 10:50:59 浏览数 (1)

名词解释

  • Document(文档): 文档是存储在elasticsearch中的一个JSON文件,相当于关系数据库中表的一行数据。
  • Shard(分片):索引数据可以拆分为较小的分片,每个分片放到不同的服务器上,提高并发能力。Lucene 中的 Lucene index 相当于 ES 的一个 shard。
  • Segments(段): 分片由多个segments组成,每个segments都是一个独立的倒排索引,且具有不变性,segment 提供了搜索功能。
  • Transaction Log(translog,事务日志):Elasticsearch使用translog来记录index,delete,update,bulk请求,保障数据不丢失,如果Elasticsearch需要恢复数据可以从translog中读取。每个分片对应一个translog文件。
  • Commit point(提交点):记录着所有已知的segment。
  • Lucene index :由一堆 Segment 的集合加上一个Commit point组成。

内存分配

  • OS Cache: Lucene 中的倒排索引 segments 存储在文件中,为提高访问速度,都会把它加载到OS Cache中,从而提高 Lucene 性能,所以建议至少留系统一半内存给Lucene。
  • Node Query Cache:负责缓存filter 查询结果,每个节点有一个,被所有 shard 共享,filter query查询结果不涉及 scores 的计算。
  • Indexing Buffe:索引缓冲区,用于存储新索引的文档,当其被填满时,缓冲区中的文档被写入磁盘中的 segments 中。
  • Shard Request Cache:用于缓存aggregations,suggestions,hits.total的请求结果。
  • Field Data Cache:Elasticsearch 加载内存 fielddata 的默认行为是延迟加载 。在首次对text类型字段做聚合、排序或者在脚本中使用时,需要设置字段为fielddata数据结构,它将会完整加载这个字段所有 Segment 中的倒排索引到堆内存中。不推荐使用,因为fielddata会占用大量堆内存空间 ,聚合或者排序使用doc_value。

写入流程--数据底层

  • 1.数据写入Index Buffer缓冲和Translog日志文件。
    • 为了保证数据不会丢失,从高版本开始Transaction Log对每个index,delete,update,bulk请求都fsync持久化到磁盘。
  • 2.Refresh:将Index Buffer写入Segment的过程叫做Refresh。
    • 每隔1s,Index Buffer中的数据被写入新的Segment(OS Cache中),此时Segment被打开并提供Search。Refresh后,数据就可以被搜索到了,这也是为什么Elasticsearch被称为近实时搜索的原因。
    • 当Index Buffer被占满时,会触发Refresh,默认值是JVM堆内存的10%。
    • Refresh不执行fsync操作,不会清空Transaction Log。
  • 3.重复1~2步,新的Segment不断添加,Index Buffer不断被清空,而Transaction Log中的数据不断累加。
  • 4.每隔30分钟或者当Transaction Log用满时(默认512M),ES Flush (Lucene Commit) 操作发生:
    • 4.1 调用Refresh清空Index Buffer。
    • 4.2 调用fsync,将缓存中的Segments写入磁盘。
    • 4.3 清空(删除)Transaction Log。
    • 4.4 commit ponit被写入磁盘,标明了所有Segment。

参数说明

Refresh

代码语言:javascript复制
PUT my-index/_settings
{
  "refresh_interval": "60s" #默认1s
}

Translog

代码语言:javascript复制
PUT my-index/_settings
{
  "translog.flush_threshold_size": "1gb",  #默认512M,当 translog 超过该值,会触发 flush
  "translog.sync_interval": "60s", #默认5s
  "translog.durability": "async" #默认是 request,每个请求都落盘,忽视translog.sync_interval。设置成 async,异步写入,根据index.translog.sync_interval参数的间隔时间做fsync。
}

0 人点赞