0748-5.14.4-Kafka的扩容和缩容(kafka扩展分区)
nanshan 2024-10-15 11:29 27 浏览 0 评论
?文档编写目的
在Kafka集群资源使用已超出系统配置的资源时,或者有大量资源闲置造成资源浪费的时候,需要分别通过扩容Kafka和缩容Kafka来进行调整。本篇文章Fayson主要介绍如何进行Kafka的扩容和缩容,以及变更后的Kafka集群如何进行负载均衡的操作。
- 测试环境:
1.Redhat7.2
2.采用root用户操作
3.CM为5.16.2,CDH为5.14.4
4.Kafka版本为0.10.2
5.集群启用了Kerberos,Kafka未启用Kerberos和Sentry
Kafka集群的扩容
2.1 当前Kafka集群状态
集群中有3个kafka broker
有2个topic,分别为test和test1,情况如下
2.2 扩容前准备
新扩容的机器要先加入集群中,通过CM管理,按照下面的步骤进行操作
1.修改新添加的机器的hostname
[root@hadoop6 ~]# hostnamectl set-hostname cdh04.hadoop.com
2.修改/etc/hosts文件并同步到所有节点,这里用脚本来实现。
192.168.0.204 cdh01.hadoop.com cdh01
192.168.0.205 cdh02.hadoop.com cdh02
192.168.0.206 cdh03.hadoop.com cdh03
192.168.0.195 cdh04.hadoop.com cdh04
3.新添加的节点关闭防火墙,设置开机自动关闭
[root@cdh04 ~]# systemctl stop firewalld
[root@cdh04 ~]# systemctl disable firewalld
4.新添加的节点禁用SELinux,并修改修改/etc/selinux/config
[root@cdh04 ~]# setenforce 0
setenforce: SELinux is disabled
[root@cdh04 ~]# vim /etc/selinux/config
5.新添加的节点关闭透明大页面,并且在/etc/rc.d/rc.local 里面加入脚本,设置自动开机关闭。
[root@cdh04 ~]# echo never > /sys/kernel/mm/transparent_hugepage/defrag
[root@cdh04 ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@cdh04 ~]# vim /etc/rc.d/rc.local
if test -f /sys/kernel/mm/transparent_hugepage/defrag
then echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
if test -f /sys/kernel/mm/transparent_hugepage/enabled
then echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi
[root@cdh04 ~]# chmod +x /etc/rc.d/rc.local
6.新添加的节点设置SWAP,并且设置开机自动更改
[root@cdh04 ~]# sysctl vm.swappiness=1
vm.swappiness = 1
[root@cdh04 ~]# echo vm.swappiness = 1 >> /etc/sysctl.conf
7.新添加的节点配置时钟同步,先在所有服务器卸载chrony,再安装ntp,再修改配置把时钟同步跟其他kafka broker节点保持一致
[root@cdh04 ~]# yum -y remove chrony
[root@cdh04 ~]# yum -y install ntp
vim /etc/ntp.conf
启动ntp服务,并设置开机启动
[root@cdh04 java]# systemctl start ntpd[root@cdh04 java]# systemctl enable ntpd
8.新添加的节点安装kerberos客户端,并进行配置
[root@cdh04 ~]# yum -y install krb5-libs krb5-workstation
从其他节点拷贝/etc/krb5.conf文件到新节点
9.从其他节点拷贝集群使用的JDK到新节点/usr/java目录下
[root@cdh01 java]# scp -r jdk1.8.0_131/ cdh04:/usr/java/jdk1.8.0_131/
10.在CM编辑主机模板kafka,只添加kafka broker角色
2.3 扩容Kafka
1.添加新的节点到集群,从CM主页点击Add Hosts,如下图所示
2.点击继续
3.搜索主机,输入主机名,点击搜索并继续
4.输入自定义存储库地址,并继续
5.点击安装JDK并继续
6.输入主机密码并继续
7.正在进行安装,安装成功后点击继续
激活完成,点击继续
8.点击继续,进入主机检查,添加主机完成
9.应用主机模板kafka,扩容完成
扩容完成
扩容后平衡
在扩容完成后,可以通过自带的命令来生成topic的平衡策略和执行平衡的操作。
3.1 生成平衡策略
1.查询当前创建的topic
[root@cdh01 ~]# kafka-topics --list --zookeeper cdh01.hadoop.com:2181
2.按照查询到的topic来创建文件topics-to-move.json 格式如下
{"topics": [{"topic": "test"},
{"topic": "test1"}
],
"version":1
}
3.在CM查询kafka broker的ID
4.用命令生成迁移方案,下面画红框的就是生成的平衡方案
kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --topics-to-move-json-file topics-to-move.json --broker-list "121,124,125,126" --generate
5.把Proposed partition reassignment configuration下的内容复制保存为json文件newkafka.json,平衡方案生成完成。
3.2 执行平衡策略
1.执行下面的命令来进行平衡
[root@cdh01 ~]# kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --execute
2.用下面命令来进行查看执行的进度
kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --verify
从结果可以看到已经执行完成。,并且在新添加的节点上也可以看到有topic的副本存过来了。
缩容前的准备
1.编辑之前创建的topics-to-move.json文件,添加上系统自动生成的__consumer_offsets
[root@cdh01 ~]# vim topics-to-move.json
{"topics": [{"topic": "test"},{"topic": "__consumer_offsets"},
{"topic": "test1"}
],
"version":1
}
2.再次使用命令生成迁移计划,这里只选取121,124,126这三个broker,然后把生成计划中的126替换成125进行保存,这样就把126上的数据全部迁移到了125上。
kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --topics-to-move-json-file topics-to-move.json --broker-list "121,124,126" --generate
3.执行迁移命令,进行迁移
kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --execute
4.进行查询,迁移完成
kafka-reassign-partitions --zookeeper cdh01.hadoop.com:2181 --reassignment-json-file newkafka.json --verify
5.在要删除的broker上也可以看到,topic数据已经迁移走
Kafka集群的缩容
在完成上诉缩容前的准备后,现在可以进行kafka集群的缩容。
1.从CM进入Kafka的实例界面
2.勾选要删除的broker,先停止该broker
3.停止完成后,进行删除
删除完成。
总结
1.Kafka集群的扩容和缩容可以通过CM来进行添加broker和删除broker来进行。
2.在Kafka集群扩容后,已有topic的partition不会自动均衡到新的磁盘上。可以通过kafka-reassign-partitions命令来进行数据平衡,先用命令生成平衡方案,再执行。也可以手动编辑迁移方案来进行执行。
3.新建topic的partition, 会以磁盘为单位,按照partition数量最少的来落盘。
4.在Kafka缩容前,需要把要删除的broker上的topic数据迁出,也可以通过kafka-reassign-partitions来进行迁移,手动编辑迁移方案,再通过命令执行即可。
5.kafka-reassign-partitions这个命令,只有指定了broker id上的topic才会参与partition的reassign。根据我们的需求,可以手动来编写和修改迁移计划。
相关推荐
- 服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下
-
Raid5数据恢复算法原理:分布式奇偶校验的独立磁盘结构(被称之为raid5)的数据恢复有一个“奇偶校验”的概念。可以简单的理解为二进制运算中的“异或运算”,通常使用的标识是xor。运算规则:若二者值...
- 服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复
-
服务器数据恢复环境&故障:由于机房多次断电导致一台服务器中raid阵列信息丢失。该阵列中存放的是文档,上层安装的是Windowsserver操作系统,没有配置ups。因为服务器异常断电重启后,rai...
- 服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例
-
服务器数据恢复环境:P740+AIX+Sybase+V7000存储,存储阵列柜上共12块SAS机械硬盘(其中一块为热备盘)。服务器故障:存储阵列柜中有磁盘出现故障,工作人员发现后更换磁盘,新更换的磁盘...
- 「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复
-
服务器数据恢复环境:DellPowerVault系列磁盘柜;用RAID卡创建的一组RAID5;分配一个LUN。服务器故障:在Linux系统层面对LUN进行分区,划分sdc1和sdc2两个分区。将sd...
- 服务器数据恢复-ESXi虚拟机被误删的数据恢复案例
-
服务器数据恢复环境:一台服务器安装的ESXi虚拟化系统,该虚拟化系统连接了多个LUN,其中一个LUN上运行了数台虚拟机,虚拟机安装WindowsServer操作系统。服务器故障&分析:管理员因误操作...
- 「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例
-
服务器数据恢复环境:HPStorageWorks某型号存储;虚拟化平台为vmwareexsi;10块磁盘组成raid5(有1块热备盘)。服务器故障:raid5阵列中两块硬盘指示灯变黄掉线,无法读取...
- 服务器数据恢复—基于oracle数据库的SAP数据恢复案例
-
服务器存储数据恢复环境:某品牌服务器存储中有一组由6块SAS硬盘组建的RAID5阵列,其中有1块硬盘作为热备盘使用。上层划分若干lun,存放Oracle数据库数据。服务器存储故障&分析:该RAID5阵...
- 「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例
-
服务器虚拟化数据恢复环境:Dell某型号服务器;数块STAT硬盘通过raid卡组建的RAID10;XenServer服务器虚拟化系统;故障虚拟机操作系统:WindowsServer,部署Web服务...
- 服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例
-
服务器数据恢复环境:某品牌服务器中有一组由4块SAS磁盘做的RAID5磁盘阵列。该服务器操作系统为windowsserver,运行了一个单节点Oracle,数据存储为文件系统,无归档。该oracle...
- 服务器数据恢复—服务器磁盘阵列常见故障表现&解决方案
-
RAID(磁盘阵列)是一种将多块物理硬盘整合成一个虚拟存储的技术,raid模块相当于一个存储管理的中间层,上层接收并执行操作系统及文件系统的数据读写指令,下层管理数据在各个物理硬盘上的存储及读写。相对...
- 「服务器数据恢复」IBM某型号服务器RAID5磁盘阵列数据恢复案例
-
服务器数据恢复环境:IBM某型号服务器;5块SAS硬盘组成RAID5磁盘阵列;存储划分为1个LUN和3个分区:第一个分区存放windowsserver系统,第二个分区存放SQLServer数据库,...
- 服务器数据恢复—Zfs文件系统下误删除文件如何恢复数据?
-
服务器故障:一台zfs文件系统服务器,管理员误操作删除服务器上的数据。服务器数据恢复过程:1、将故障服务器所有磁盘编号后取出,硬件工程师检测所有硬盘后没有发现有磁盘存在硬件故障。以只读方式将全部磁盘做...
- 服务器数据恢复—Linux+raid5服务器数据恢复案例
-
服务器数据恢复环境:某品牌linux操作系统服务器,服务器中有4块SAS接口硬盘组建一组raid5阵列。服务器中存放的数据有数据库、办公文档、代码文件等。服务器故障&检测:服务器在运行过程中突然瘫痪,...
- 服务器数据恢复—Sql Server数据库数据恢复案例
-
服务器数据恢复环境:一台安装windowsserver操作系统的服务器。一组由8块硬盘组建的RAID5,划分LUN供这台服务器使用。在windows服务器内装有SqlServer数据库。存储空间LU...
- 服务器数据恢复—阿里云ECS网站服务器数据恢复案例
-
云服务器数据恢复环境:阿里云ECS网站服务器,linux操作系统+mysql数据库。云服务器故障:在执行数据库版本更新测试时,在生产库误执行了本来应该在测试库执行的sql脚本,导致生产库部分表被tru...
你 发表评论:
欢迎- 一周热门
-
-
爱折腾的特斯拉车主必看!手把手教你TESLAMATE的备份和恢复
-
如何在安装前及安装后修改黑群晖的Mac地址和Sn系列号
-
[常用工具] OpenCV_contrib库在windows下编译使用指南
-
WindowsServer2022|配置NTP服务器的命令
-
Ubuntu系统Daphne + Nginx + supervisor部署Django项目
-
WIN11 安装配置 linux 子系统 Ubuntu 图形界面 桌面系统
-
解决Linux终端中“-bash: nano: command not found”问题
-
NBA 2K25虚拟内存不足/爆内存/内存占用100% 一文速解
-
Linux 中的文件描述符是什么?(linux 打开文件表 文件描述符)
-
K3s禁用Service Load Balancer,解决获取浏览器IP不正确问题
-
- 最近发表
-
- 服务器数据恢复—Raid5数据灾难不用愁,Raid5数据恢复原理了解下
- 服务器数据恢复—多次异常断电导致服务器raid不可用的数据恢复
- 服务器数据恢复-V7000存储更换磁盘数据同步失败的数据恢复案例
- 「服务器数据恢复」重装系统导致XFS文件系统分区丢失的数据恢复
- 服务器数据恢复-ESXi虚拟机被误删的数据恢复案例
- 「服务器数据恢复」Raid5阵列两块硬盘亮黄灯掉线的数据恢复案例
- 服务器数据恢复—基于oracle数据库的SAP数据恢复案例
- 「服务器虚拟化数据恢复」Xen Server环境下数据库数据恢复案例
- 服务器数据恢复—RAID故障导致oracle无法启动的数据恢复案例
- 服务器数据恢复—服务器磁盘阵列常见故障表现&解决方案
- 标签列表
-
- linux 查询端口号 (58)
- docker映射容器目录到宿主机 (66)
- 杀端口 (60)
- yum更换阿里源 (62)
- internet explorer 增强的安全配置已启用 (65)
- linux自动挂载 (56)
- 禁用selinux (55)
- sysv-rc-conf (69)
- ubuntu防火墙状态查看 (64)
- windows server 2022激活密钥 (56)
- 无法与服务器建立安全连接是什么意思 (74)
- 443/80端口被占用怎么解决 (56)
- ping无法访问目标主机怎么解决 (58)
- fdatasync (59)
- 405 not allowed (56)
- 免备案虚拟主机zxhost (55)
- linux根据pid查看进程 (60)
- dhcp工具 (62)
- mysql 1045 (57)
- 宝塔远程工具 (56)
- ssh服务器拒绝了密码 请再试一次 (56)
- ubuntu卸载docker (56)
- linux查看nginx状态 (63)
- tomcat 乱码 (76)
- 2008r2激活序列号 (65)