Kafka集群搭建

时间:2020-04-07
本文章向大家介绍Kafka集群搭建,主要包括Kafka集群搭建使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

kafka安装前提

需要安装对应版本的scala,jdk,zookeeper

安装步骤

解压

sudo tar -zxvf kafka_2.11-0.11.0.0.tgz -C /usr/local/ 

改名+增加权限

sudo mv kafka_2.11-0.11.0.0/ ./kafka
sudo chown -R hadoop ./kafka

建立日志存放路径

sudo mkdir logs

更改配置文件server.properties

#broker 的全局唯一编号,不能重复
broker.id=0
#删除 topic 功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘 IO 的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka 运行日志存放的路径
log.dirs=/opt/module/kafka/logs
#topic 在当前 broker 上的分区个数
num.partitions=1
#用来恢复和清理 data 下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment 文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接 Zookeeper 集群地址
zookeeper.connect=hadoop1:2181,hadoop2:2181,hadoop3:2181

配置环境变量

sudo gedit ~/.bashrc
$KAFKA_HOME=/usr/local/kafka/bin
source ~/.bashrc
将/kafka目录分发给其他节点hadoop2,hadoop3

需要在各自的配置文件server.properties修改broker.id=1,broker.id=2。每个broker的broker.id要不相同。

启动和关闭集群

需要在每个节点单独启动

hadoop1  bin/kafka-server-start.sh -daemon config/server.properties
hadoop2  bin/kafka-server-start.sh -daemon config/server.properties
hadoop3  bin/kafka-server-start.sh -daemon config/server.properties

需要在每个节点单独关闭

hadoop1 bin/kafka-server-stop.sh stop
hadoop2 bin/kafka-server-stop.sh stop
hadoop3 bin/kafka-server-stop.sh stop

或者使用脚本,ssh访问来开启集群

for i in hadoop1 hadoop2 hadoop3
do
echo "========== $i =========="
ssh $i '/usr/local/kafka/bin/kafka-server-start.sh -daemon
/opt/module/kafka/config/server.properties'
done

原文地址:https://www.cnblogs.com/chenshaowei/p/12655882.html