大家好,又见面了,我是你们的朋友全栈君。
ES集群规划及节点角色规划最佳实践- 1、内存
下表列出各节点角色资源占用情况
节点角色 | 功能 | 资源占用程度 |
---|---|---|
Data | 提供数据索引,存储和搜索 | 磁盘IO消耗极高,内存和CPU消耗高,网络消耗一般 |
Master | 管理集群状态 | 磁盘,内存,CPU和网络消耗低 |
Ingest | 索引预处理(pipeline) | 磁盘IO消耗低,内存和CPU消耗极高,网络消耗一般 |
Coordinator | 代理转发请求,合并搜索结果 | |
Machine Learning | 处理机器学习模型 | io消耗低,内存和CPU消耗极高,网络消耗一般 |
1、内存
Elasticsearch 和 Lucene 都是 Java 语言编写,这意味着我们必须注意堆内存的设置。
Elasticsearch 可用的堆越多,它可用于过滤器(filter)和其他缓存的内存也就越多,更进一步讲可以提高查询性能。
但请注意,过多的堆可能会使垃圾回收暂停时间过长。请勿将堆内存的最大值设置为 JVM 用于压缩对象指针(压缩的 oops)的临界值之上,确切的临界值有所不同,但不要超过 32 GB。
推荐:干货 | 吃透Elasticsearch 堆内存
常见内存配置坑 1:堆内存设置过大 举例:Elasticsearch 宿主机:64 GB 内存,堆内存恨不得设置为 64 GB。
但,这忽略了堆的另一部分内存使用大户:OS 文件缓存。
Lucene 旨在利用底层操作系统来缓存内存中的数据结构。Lucene 段存储在单独的文件中。
由于段是不可变的(immutable),因此这些文件永远不会更改。这使它们非常易于缓存,并且底层操作系统很乐意将热段驻留在内存中,以加快访问速度。
这些段包括倒排索引(用于全文搜索)和doc values 正排索引(用于聚合)。Lucene 的性能取决于与 OS 文件缓存的交互。
如果你将所有可用内存分配给 Elasticsearch 的堆,则 OS 文件缓存将不会剩下任何可用空间。这会严重影响性能。
官方标准建议是:将 50% 的可用内存(不超过 32 GB,一般建议最大设置为:31 GB)分配给 Elasticsearch 堆,而其余 50% 留给 Lucene 缓存。
图片来自网络
可以通过以下方式配置 Elasticsearch 堆:
方式一:堆内存配置文件 jvm.options
代码语言:javascript复制# Xms represents the initial size of total heap space
# Xmx represents the maximum size of total heap space
-Xms16g
-Xmx16g
方式二:启动参数设置
ES_JAVA_OPTS=”-Xms10g -Xmx10g” ./bin/elasticsearch 2、CPU 运行复杂的缓存查询、密集写入数据都需要大量的CPU,因此选择正确的查询类型以及渐进的写入策略至关重要。
一个节点使用多个线程池来管理内存消耗。与线程池关联的队列使待处理的请求得以保留(类似缓冲效果)而不是被丢弃。
由于 Elasticsearch会做动态分配,除非有非常具体的要求,否则不建议更改线程池和队列大小。
线程池和队列的设置,参见:
Elasticsearch 线程池和队列问题,请先看这一篇。
推荐阅读:
https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-threadpool.html
3、分片数 分片是 Elasticsearch 在集群内分发数据的单位。集群发生故障再恢复平衡的速度取决于分片的大小、分片数量、网络以及磁盘性能。
在 Elasticsearch 中,每个查询在每个分片的单个线程中执行。但是,可以并行处理多个分片。针对同一分片的多个查询和聚合也可以并行处理。
这意味着在不涉及缓存的情况下,最小查询延迟将取决于数据、查询类型以及分片的大小三个因素。
3.1 设置很多小分片 VS 设置很少大分片? 查询很多小分片,导致每个分片能做到快速响应,但是由于需要按顺序排队和处理结果汇集。因此不一定比查询少量的大分片快。
如果存在多个并发查询,那么拥有大量小分片也会降低查询吞吐量。
所以,就有了下面的分片数如何设定的问题?
3.2 分片数设定 选择正确数量的分片是一个复杂问题,因为在集群规划阶段以及在数据写入开始之前,一般不能确切知道文档数。
对于集群而言,分片数多了以后,索引和分片管理可能会使主节点超载,并可能会导致集群无响应,甚至导致集群宕机。
建议:为主节点(Master 节点)分配足够的资源以应对分片数过多可能导致的问题。
必须强调的是:主分片数是在索引创建时定义的,不支持借助 update API 实现类副本数更新的动态修改。创建索引后,更改主分片数的唯一方法是重新创建索引,然后将原来索引数据 reindex 到新索引。
官方给出的合理的建议:每个分片数据大小:30GB-50GB。
推荐1:Elasticsearch究竟要设置多少分片数?
https://elastic.blog.csdn.net/article/details/78080602
推荐2:Elasticsearch之如何合理分配索引分片
https://qbox.io/blog/optimizing-elasticsearch-how-many-shards-per-index
4、副本 Elasticsearch 通过副本实现集群的高可用性,数据在数据节点之间复制,以实现主分片数据的备份,因此即便部分节点因异常下线也不会导致数据丢失。
默认情况下,副本数为 1,但可以根据产品高可用要求将其增加。副本越多,数据的容灾性越高。
副本多的另一个优点是,每个节点都拥有一个副本分片,有助于提升查询性能。
铭毅提醒:
实际副本数增多提高查询性能建议结合集群做下测试,我实测过效果不明显。
副本数增多意味着磁盘存储要加倍,也考验硬盘空间和磁盘预算。
建议:根据业务实际综合考虑设置副本数。普通业务场景(非精准高可用)副本设置为 1 足够了。
5、冷热集群架构配置 根据产品业务数据特定和需求,我们可以将数据分为热数据和冷数据,这是冷热集群架构的前提。
访问频率更高的索引可以分配更多更高配(如:SSD)的数据节点,而访问频率较低的索引可以分配低配(如:机械磁盘)数据节点。
冷热集群架构对于存储诸如应用程序日志或互联网实时采集数据(基于时间序列数据)特别有用。
数据迁移策略:通过运行定时任务来实现定期将索引移动到不同类型的节点。
具体实现:curator 工具或借助 ILM 索引生命周期管理。
5.1 热节点 热节点是一种特定类型的数据节点,关联索引数据是:最近、最新、最热数据。
因为这些热节点数据通常倾向于最频繁地查询。热数据的操作会占用大量 CPU 和 IO 资源,因此对应服务器需要功能强大(高配)并附加 SSD 存储支持。
针对集群规模大的场景,建议:至少运行 3 个热节点以实现高可用性。
当然,这也和你实际业务写入和查询的数据量有关系,如果数据量非常大,可能会需要增加热节点数目。
5.2 冷节点(或称暖节点) 冷节点是对标热节点的一种数据节点,旨在处理大量不太经常查询的只读索引数据。
由于这些索引是只读的,因此冷节点倾向于使用普通机械磁盘而非 SSD 磁盘。
与热节点对标,也建议:最少 3 个冷节点以实现高可用性。
同样需要注意的是,若集群规模非常大,可能需要更多节点才能满足性能要求。
甚至需要更多类型,如:热节点、暖节点、冷节点等。
强调一下:CPU 和 内存的分配最终需要你通过使用与生产环境中类似的环境借助 esrally 性能测试工具测试确定,而不是直接参考各种最佳实践拍脑袋而定。
有关热节点和热节点的更多详细信息,请参见:
https://www.elastic.co/blog/hot-warm-architecture-in-elasticsearch-5-x
推荐:冷热集群架构实战
6、节点角色划分 Elasticsearch 节点核心可分为三类:主节点、数据节点、协调节点。
6.1 主节点 主节点:如果主节点是仅是候选主节点,不含数据节点角色,则它配置要求没有那么高,因为它不存储任何索引数据。
如前所述,如果分片非常多,建议主节点要提高硬件配置。
主节点职责:存储集群状态信息、分片分配管理等。
同时注意,Elasticsearch 应该有多个候选主节点,以避免脑裂问题。
6.2 数据节点 数据节点职责:CURD、搜索以及聚合相关的操作。
这些操作一般都是IO、内存、CPU 密集型。
6.3 协调节点 协调节点职责:类似负载平衡器,主要工作是:将搜索任务分发到相关的数据节点,并收集所有结果,然后再将它们汇总并返回给客户端应用程序。
6.4 节点配置参考 下表参见官方博客 PPT
角色 描述 存储 内存 计算 网络 数据节点 存储和检索数据 极高 高 高 中 主节点 管理集群状态 低 低 低 低 Ingest 节点 转换输入数据 低 中 高 中 机器学习节点 机器学习 低 极高 极高 中 协调节点 请求转发和合并检索结果 低 中 中 中 6.5 不同节点角色配置如下 必须配置到:elasticsearch.yml 中。
主节点
node.master:true node.data:false 数据节点
node.master:false node.data:true 协调节点
node.master:false node.data:false 7、故障排除提示 Elasticsearch 的性能在很大程度上取决于宿主机资源情况。
CPU、内存使用率和磁盘 IO 是每个Elasticsearch节点的基本指标。
建议你在CPU使用率激增时查看Java虚拟机(JVM)指标。
7.1 堆内存使用率高 高堆内存使用率压力以两种方式影响集群性能:
7.1.1 堆内存压力上升到75%及更高 剩余可用内存更少,并且集群现在还需要花费一些 CPU 资源以通过垃圾回收来回收内存。
在启用垃圾收集时,这些 CPU 周期不可用于处理用户请求。结果,随着系统变得越来越受资源约束,用户请求的响应时间增加。
7.1.2 堆内存压力继续上升并达到接近100% 将使用更具侵略性的垃圾收集形式,这将反过来极大地影响集群响应时间。
索引响应时间度量标准表明,高堆内存压力会严重影响性能。
7.2 非堆内存使用率增长 JVM 外非堆内存的增长,吞噬了用于页面缓存的内存,并可能导致内核级OOM。
7.3 监控磁盘IO 由于Elasticsearch大量使用存储设备,磁盘 IO 的监视是所有其他优化的基础,发现磁盘 IO 问题并对相关业务操作做调整可以避免潜在的问题。
应根据引起磁盘 IO 的情况评估对策,常见优化磁盘 IO 实战策略如下:
优化分片数量及其大小
段合并策略优化
更换普通磁盘为SSD磁盘
添加更多节点
7.5 合理设置预警 对于依赖搜索的应用程序,用户体验与搜索请求的等待时间长短相关。
有许多因素会影响查询性能,例如:
构造查询方式不合理
Elasticsearch 集群配置不合理
JVM 内存和垃圾回收问题
磁盘 IO 等
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/136338.html原文链接:https://javaforall.cn