org.apache.lucene.index.CorruptIndexException: checksum failed (hardware problem?) : expected=1wawfr3 actual=ux64oi (resource=name [_dem.fdt], length [2731835920], checksum [1wawfr3], writtenBy [8.7.0]) (resource=VerifyingIndexOutput(_dem.fdt))
一般是因为磁盘或系统问题导致的分片文件损坏,es checksum异常
2. 停机修复:https://www.elastic.co/guide/en/elasticsearch/reference/current/shard-tool.html
3. 不停机修复:用lucene里面提供的工具试了下,主要参考如下文章:
https://mincong.io/cn/elasticsearch-corrupted-index/
然后按照下面的步骤处理了下,感觉有点绕远,理论上直接remove掉分配过期的分片就行
1. 把有问题的分片数据copy出来
2. 指定日志里面报错的segment检测下,有问题的segment名字是 _dem,然后确实有报错
/data/c_log/repository/jdk/kona11.0.9.1.b1/bin/java -cp lib/lucene-core-8.7.0.jar:lib/ohc-core-0.7.0.jar -ea:org.apache.lucene... org.apache.lucene.index.CheckIndex /data1/containers/data_bak/index -segment _dem
3. 然后修复
/data/c_log/repository/jdk/kona11.0.9.1.b1/bin/java -cp lib/lucene-core-8.7.0.jar:lib/ohc-core-0.7.0.jar -ea:org.apache.lucene... org.apache.lucene.index.CheckIndex /data1/containers/data_bak/index -exorcise
4. close索引,替换分片的索引文件目录
5. reopen
the node is above the high watermark cluster setting \[cluster.routing.allocation.disk.watermark.high=95%\], using more disk space than the maximum allowed \[95.0%\], actual free: \[4.05%\]
扩容磁盘或者删除数据
failure IllegalArgumentException\[number of documents in the index cannot exceed 2147483519
向新索引中写入数据,并合理设置分片大小
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。