踩坑日志之elasticSearch

2022-07-08 16:33:25 浏览数 (1)

前言

上周六马上就下班了,正兴高采烈的想着下班吃什么呢!突然QA找到我,说我们的DB与es无法同步数据了,真是令人头皮发秃,好不容易休一天,啊啊啊,难受呀,没办法,还是赶紧找bug吧。下面我就把我这次的bug原因分享给大家,避免踩坑~。

bug原因之bulk隐藏错误信息

第一时间,我去看了一下错误日志,竟然没有错误日志,很是神奇,既然这样,那我们就DEBUG一下吧,DEBUG之前我先贴一段代码:

代码语言:javascript复制
func (es *UserES) batchAdd(ctx context.Context, user []*model.UserEs) error {
 req := es.client.Bulk().Index(es.index)
 for _, u := range user {
  u.UpdateTime = uint64(time.Now().UnixNano()) / uint64(time.Millisecond)
  u.CreateTime = uint64(time.Now().UnixNano()) / uint64(time.Millisecond)
  doc := elastic.NewBulkIndexRequest().Id(strconv.FormatUint(u.ID, 10)).Doc(u)
  req.Add(doc)
 }
 if req.NumberOfActions() < 0 {
  return nil
 }
 if _, err := req.Do(ctx); err != nil {
  return err
 }
 return nil
}

就是上面这段代码,使用esbulk批量操作,经过DEBUG仍然没有发现任何问题,卧槽!!!没有头绪了,那就看一看es源码吧,里面是不是有什么隐藏的点没有注意到。还真被我找到了,我们先看一下req.Do(ctx)的实现:

代码语言:javascript复制
// Do sends the batched requests to Elasticsearch. Note that, when successful,
// you can reuse the BulkService for the next batch as the list of bulk
// requests is cleared on success.
func (s *BulkService) Do(ctx context.Context) (*BulkResponse, error) {
 /**
 ...... 省略部分代码
  **/
 // Get response
 res, err := s.client.PerformRequest(ctx, PerformRequestOptions{
  Method:      "POST",
  Path:        path,
  Params:      params,
  Body:        body,
  ContentType: "application/x-ndjson",
  Retrier:     s.retrier,
  Headers:     s.headers,
 })
 if err != nil {
  return nil, err
 }

 // Return results
 ret := new(BulkResponse)
 if err := s.client.decoder.Decode(res.Body, ret); err != nil {
  return nil, err
 }

 // Reset so the request can be reused
 s.Reset()

 return ret, nil
}

我只把重要部分代码贴出来,看这一段就好了,我来解释一下:

  • 首先构建Http请求
  • 发送Http请求并分析,并解析response
  • 重置request可以重复使用

这里的重点就是ret := new(BulkResponse)new了一个BulkResponse结构,他的结构如下:

代码语言:javascript复制
type BulkResponse struct {
 Took   int                            `json:"took,omitempty"`
 Errors bool                           `json:"errors,omitempty"`
 Items  []map[string]*BulkResponseItem `json:"items,omitempty"`
}
// BulkResponseItem is the result of a single bulk request.
type BulkResponseItem struct {
 Index         string        `json:"_index,omitempty"`
 Type          string        `json:"_type,omitempty"`
 Id            string        `json:"_id,omitempty"`
 Version       int64         `json:"_version,omitempty"`
 Result        string        `json:"result,omitempty"`
 Shards        *ShardsInfo   `json:"_shards,omitempty"`
 SeqNo         int64         `json:"_seq_no,omitempty"`
 PrimaryTerm   int64         `json:"_primary_term,omitempty"`
 Status        int           `json:"status,omitempty"`
 ForcedRefresh bool          `json:"forced_refresh,omitempty"`
 Error         *ErrorDetails `json:"error,omitempty"`
 GetResult     *GetResult    `json:"get,omitempty"`
}

先来解释一个每个字段的意思:

  • took:总共耗费了多长时间,单位是毫秒
  • Errors:如果其中任何子请求失败,该 errors 标志被设置为 true ,并且在相应的请求报告出错误明细(看下面的Items解释)
  • Items:这个里就是存储每一个子请求的response,这里的Error存储的是详细的错误信息

现在我想大家应该知道为什么我们的代码没有报err信息了,bulk的每个请求都是独立的执行,因此某个子请求的失败不会对其他子请求的成功与否造成影响,所以其中某一条出现错误我们需要从BulkResponse解出来。现在我们把代码改正确:

代码语言:javascript复制
func (es *UserES) batchAdd(ctx context.Context, user []*model.UserEs) error {
 req := es.client.Bulk().Index(es.index)
 for _, u := range user {
  u.UpdateTime = uint64(time.Now().UnixNano()) / uint64(time.Millisecond)
  u.CreateTime = uint64(time.Now().UnixNano()) / uint64(time.Millisecond)
  doc := elastic.NewBulkIndexRequest().Id(strconv.FormatUint(u.ID, 10)).Doc(u)
  req.Add(doc)
 }
 if req.NumberOfActions() < 0 {
  return nil
 }
 res, err := req.Do(ctx)
 if err != nil {
  return err
 }
 // 任何子请求失败,该 `errors` 标志被设置为 `true` ,并且在相应的请求报告出错误明细
 // 所以如果没有出错,说明全部成功了,直接返回即可
 if !res.Errors {
  return nil
 }
 for _, it := range res.Failed() {
  if it.Error == nil {
   continue
  }
  return &elastic.Error{
   Status:  it.Status,
   Details: it.Error,
  }
 }
 return nil
}

这里再解释一下res.Failed方法,这里会把itemsbulk response带错误的返回,所以在这里面找错误信息就可以了。

至此,这个bug原因终于被我找到了,接下来可以看下一个bug了,我们先简单总结一下:

bulk API 允许在单个步骤中进行多次 createindexupdatedelete 请求,每个子请求都是独立执行,因此某个子请求的失败不会对其他子请求的成功与否造成影响。bulk的response结构中Erros字段,如果其中任何子请求失败,该 errors 标志被设置为 true ,并且在相应的请求报告出错误明细,items字段是一个数组,,这个数组的内容是以请求的顺序列出来的每个请求的结果。所以在使用bulk时一定要从response中判断是否有err

bug原因之数值范围越界

这里完全是自己使用不当造成,但还是想说一说es的映射数字类型范围的问题:

数字类型有如下分类:

类型

说明

byte

有符号的8位整数, 范围: [-128 ~ 127]

short

有符号的16位整数, 范围: [-32768 ~ 32767]

integer

有符号的32位整数, 范围: [−231−231 ~ 231231-1]

long

有符号的64位整数, 范围: [−263−263 ~ 263263-1]

float

32位单精度浮点数

double

64位双精度浮点数

half_float

16位半精度IEEE 754浮点类型

scaled_float

缩放类型的的浮点数, 比如price字段只需精确到分, 57.34缩放因子为100, 存储结果为5734

这里都是有符号类型的,无符号在es7.10.1版本才开始支持,有兴趣的同学戳这里。

这里把这些数字类型及范围列出来就是方便说我的bug原因,这里直接解释一下:

我在DB设置字段的类型是tinyint unsignedtinyint是一个字节存储,无符号的话范围是0-255,而我在es中映射类型选择的是byte,范围是-128~127,当DB中数值超过这个范围是,在进行同步时就会出现这个问题,这里需要大家注意一下数值范围的问题,不要像我一样,因为这个还排查了好久的bug,有些空间没必要省,反正也占不了多少空间。

总结

这篇文章就是简单总结一下我在工作中遇到的问题,发表出来就是给大家提个醒,有人踩过的坑,就不要在踩了,浪费时间!!!!

0 人点赞