首页 > 代码库 > Elasticsearch1.7.3升级到2.4.2记录

Elasticsearch1.7.3升级到2.4.2记录

我们用ELK做日志分析系统,Elasticsearch1.7.3运行了近一年,最近已经将一个集群升级到ES5.1.1,但是遇到问题比较多。所以将另一个集群升级到社区推荐比较稳定的2.4.2。为了便于升级管理,操作都是用ansible来统一执行。


一:停止monit守护进程

#集群的所有logstash、es进程都是由monit监控守护,先停止监控守护。感兴趣monit的可以看我另一篇文章《使用M/Monit进行可视化集中进程管理》

$ ansible elksjs -m shell -a ‘/opt/monit/bin/monit -c /opt/monit/conf/monitrc unmonitor all‘


二:停止es集群写入

#由于前端顶了kafka集群,所以后端停止写入,数据会堆积在kafka中。集群启动后继续消费。数据不会丢失。

$ ansible elksjs -m shell -a ‘/etc/init.d/logstash start‘


三:停止logstash写入后,同步副本commitd

#和linux命令sync的类似,停机前将内存中数据刷到磁盘中。

$ curl -XPOST localhost:9200/_flush/synced


四:停机前禁止分片分配

#禁止分片分配,防止集群启动后,某些节点没有及时加入而导致数据在集群中分配均衡,增加负载。应该等所有节点加入后,再开启分片分配。

$ curl -XPUT  localhost:9200/_cluster/settings -d ‘{"transient":{"cluster.routing.allocation.enable": "none"}}‘


五:停止es

#停止所有es的节点。

$ ansible elksjs -m shell -a ‘/etc/init.d/elasticsearch stop‘


六:卸载es老版本

#卸载所有es的安装包

$ ansible elksjs -m shell -a ‘rpm -e elasticsearch-1.7.3-1‘


七:安装新包

#安装新的es2.4.2安装包

ansible elksjs -m shell -a ‘wget https://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/rpm/elasticsearch/2.4.2/elasticsearch-2.4.2.rpm -P /opt‘ 
ansible elksjs -m shell -a ‘rpm -iv /opt/elasticsearch-2.4.2.rpm‘


八:恢复配置文件和启动文件

#做这一步的前提是本次升级配置文件没有变化,1.7.3和2.4.2的配置变化不大,我的配置中都适配2.4.2版本,所以直接用原配置了。稍后再做优化和调整。如果有变化,请更新配置文件。

$ ansible elksjs -m shell -a ‘cd /etc/init.d/ &&rm elasticsearch && mv elasticsearch.rpmsave elasticsearch‘
$ ansible elksjs -m shell -a ‘cd  /etc/elasticsearch/&& rm -rf elasticearch.yml &&mv elasticsearch.yml.rpmsave elasticsearch.yml‘


九:修改数据目录属主

#由于卸载es安装包的时候也删除了es用户,又新建了es用户,所以要重新给es的data目录属主改成elasticsearch。

$ ansible elksjs -m shell -a ‘chown -R elasticsearch.elasticsearch /data/elk/es‘
$ ansible elksjs -m shell -a ‘chown -R elasticsearch.elasticsearch /data/es‘

十:启动elasticsearch

#启动es进程,这一步没有报错就万事大吉了,事实上不是。。。经历了多次报错,多次回滚到老版本,调整后终于升级成功了。

ansible elksjs -m shell -a ‘/etc/init.d/elasticsearch start‘


十一:检查集群是否健康

#集群启动后,通过下面来检查集群节点是否都加入集群,集群是否健康。事实上,我的五个master启动后自动加入集群,但是数据节点升级后启动时基本都在做索引升级操作。es2.x和es1.x对多目录索引路径的存放策略是不同的。需要将所有的数据move一遍。等待时间很长。

$ curl localhost:9200/_cat/health?v
$ curl localhost:9200/_cat/nodes?v


十二:集群启动后启动分片分配

#等所有节点都加入集群后,可以开启分片分配

curl -XPUT  localhost:9200/_cluster/settings -d ‘{"transient": {"cluster.routing.allocation.enable": "all"}}‘


十三:下载新版本head和kopf插件

#之前1.X用的head插件和kopf-1.5发现在es2.4.2中都无法正常显示,只好卸载重装了,安装了新的版本。

$ wget https://codeload.github.com/mobz/elasticsearch-head/zip/master
$ wget https://codeload.github.com/lmenezes/elasticsearch-kopf/tar.gz/v2.1.2
$ tar xf elasticsearch-kopf-2.1.2.tar.gz
$ unzip elasticsearch-head-master.zip
$ mv elasticsearch-kopf-2.1.2 /usr/share/elasticsearch/plugins/kopf
$ mv elasticsearch-head-master /usr/share/elasticsearch/plugins/head



十四:更新kibana

#由于之前使用的是ES1.X,在2.x中已经不再支持kibana3,但是由于有大量的索引页在kibana3上,以及长时间的用户习惯,还想使用kibana3。社区里有同学改了kibana3的代码,支持了es2.X。所以又可以愉快的使用kibana3了。

$ wget  https://codeload.github.com/heqin5136/kibana3-with-es2/zip/master
# 将kibana3-with-es2/src作为web目录即可


 # kibana4之前使用的是4.1.4但是启动后也出现报错。使用4.6版本正常

$ wget https://download.elastic.co/kibana/kibana/kibana-4.6.0-x86_64.rpm



升级过程中遇到的问题


(1):当设置bootstrap.mlockall: true时,启动es报警告Unknown mlockall error 0

解决方法:设置为锁住内存大小无限制,linux命令:ulimit -l unlimited



(2):升级后,启动es报错Failed to created node environment,原因是卸载es包之后,es用户被删除。新安装的es包,创建了新的es用户。而原来的data目录属主还是原来的id。所以新的es用户没有权限去读数据。导致无法启动。

[2016-07-24 19:19:16,280][ERROR][bootstrap                ] Exception

org.elasticsearch.ElasticsearchIllegalStateException: Failed to created node environment

data 

解决办法:chown -R elasticsearch.elasticsearch /data/elk/es


(3):新的字段中不允许有.的存在,之前由于采用kv随机匹配产生了大量的随机字段,很多包含了.,所以无法升级

Starting elasticsearch: Exception in thread "main" java.lang.IllegalStateException: unable to upgrade the mappings for the index [logstash-adn-2016.07.02], reason: [Field name [adn_tabArticle.articleId] cannot contain ‘.‘]

Likely root cause: MapperParsingException[Field name [adn_tabArticle.articleId] cannot contain ‘.‘]

atorg.elasticsearch.index.mapper.object.ObjectMapper$TypeParser.parseProperties(ObjectMapper.java:278)

解决办法:注销kv切割字段,等待老索引过期再升级。


(4):字段类型不同导致es的mapping报错。之前由于output插件的判断不够严谨,导致packetbeat的部分数据写到logstash的索引中,在logstash索引中port字段出现了number和string两种类型,产生冲突,导致es无法升级。

unable to upgrade the mappings for the index [logstash-2016.12.12], reason: [mapper [port] cannot be changed from type [string] to [long]]。

解决办法:注重新写logstash的判断输出,等待冲突索引过期。


(5):ES启动后,数据节点进行索引升级,但是发现很多已经删除的几个月前老索引也在升级操作,非常耗费时间。

解决办法:删除掉data目录下的无用的索引目录。


(6):Kibana: This version of Kibana requires Elasticsearch ^1.4.4 on all nodes.

I found the following incompatible nodes in your cluster: Elasticsearch v2.4.2 @ undefined

解决办法:kiabna版本4.1.4与es2.4.2不匹配。更新到4.6.1正常使用。


(7)kibana4.6.1报错 Courier Fetch Error: unhandled courier request error: Authorization Exception

技术分享解决办法:注释掉 http.cors.enabled: 




本文出自 “酱酱酱子” 博客,请务必保留此出处http://heqin.blog.51cto.com/8931355/1886175

Elasticsearch1.7.3升级到2.4.2记录