在线扩容中,需要做以下工作,准备相关符合对应数据服务类型的节点. 然后编辑 scale-out.yaml 文件, 通过编辑文件来指定要添加节点的类型,地址和相关数据文件,程序文件锁需要存放的地点.
运行扩容命令通过tiup cluster scale-out 命令来对数据集群扩展节点.然后在通过 tiup cluster display 来确认信的节点是否加入到系统当中.
另外在TIDB 4.0 支持了TIFLASH ,这里需要4.0 版本的TIDB 在对TIFLASH 进行升级和扩容.
TIDB 在节方便的扩容的基础上,也可以方便的回收节点资源. 命令为tiup cluster scale-in <cluster-name> --node IP:port
重命名集群,TIDB 的集群本身也是可以进行更换名字的, 通过tiup cluster rename 旧的集群名 新的集群名 来更换分布式数据库的集群名.
清理集群的数据是无法恢复的,可以通过命令来清理日志数据或.
在TIDB 中可以对时区进行设置,而TIDB 中的时区仅仅影响TIMEZONE
从上的命令看第一个命令是可以通过改变后面的变换对 TIKV ,TIDB ,PD 等进行ONE BY ONE 的更新.
版本的升级其中包含了如上几项工作,
1 保证你的TIUP 的工具是比较新的版本
2 对配置文件的修改,这样能保证配置文件符合升级版本的目标的配置项
3 升级的方式有两种停机升级, 不停机升级, 这里TIDB 建议如果有可能建议通过停机升级的方式,这样速度会比较快.
4 然后根据要升级的版本执行对应升级版本的命令
5 最后进行相关的验证
这里在升级前还需要对集群当前的region健康状态进行检查
tiup cluster check <cluster-name> --cluster 进行检测,检测region 的状态通过了在进行相关的升级. 如果返回 all region healthy 则可以进行后续的升级.
升级中, TIDB 有相关的leader 在升级的时候需要在升级的节点转移leader到其他的节点 然后在升级,这里设置的超时时间是5分钟,超时后节点会停止工作. 停机的方式是可以进行并行的升级, 在线升级是滚动的方式升级的.
tiup cluster audit 可以查看相关的升级中失败的操作记录, 并且可以在重试升级操作的根据我们上次失败的ID (通过tiup cluster audit 获得ID)
如果不想等待的时间过长,可以通过参数 --force 来强制TIDB 升级时不迁移LEADER, 直接升级,此时这个节点上的LEADER region 无法进行工作,升级完毕后可以继续工作.
TIUP 升级的工具顺序是
1 升级TIUP 2 升级TIUP CLUSTER 3 检查TIDB 的region的状态 4 升级TIDB cluster 5 检查TIDB 的集群状态 通过display 来查看集群的状态,另外需要注意的升级TIDB是可以进行回退的.
添加一个TIKV节点
1 确保当前的集群的状态是正确的
2 编辑一个添加节点信息的yaml文件
初始化新的TIKV 节点后, tikv 扩容完成.
在添加节点后, 数据会自动的往新的节点上进行迁移. 整体扩容就完成了