首页 > 代码库 > Kafka单机版环境搭建

Kafka单机版环境搭建

使用版本:kafka_2.10-0.8.1.1

安装:

tar -zxvf kafka_2.10-0.8.1.1.tgz -C ~/app/

 

添加环境变量:.bash_profile

export KAFKA_HOME=/home/spark/app/kafka_2.10-0.8.1.1export PATH=.:$KAFKA_HOME/bin:......

 

kafka配置文件:

config/server.properties 

broker.id=0   #唯一,自己指定,不重复即可

host.name=hadoop000   #hostname

zookeeper.connect=hadoop000:2181   #配置zk的地址,集群版本配置时,多个zk地址使用逗号连接

 

启动Kafka步骤:

1、启动ZK: (ZK环境单独搭建)

zkServer.sh start

2、启动KAFKA SERVER:

kafka-server-start.sh  $KAFKA_HOME/config/server.properties  

推荐以后台的方式启动:

kafka-server-start.sh  $KAFKA_HOME/config/server.properties  &

3、创建TOPIC:

kafka-topics.sh --create --zookeeper hadoop000:2181 --replication-factor 1 --partitions 1  --topic test

检验是否创建topic成功

kafka-topics.sh --list --zookeeper hadoop000:2181

查看topic详细信息

kafktopics.sh --describe --zookeeper hadoop000:2181

4、启动producer

kafka-console-producer.sh --broker-list hadoop000:9092 --topic test

5、启动consumer

kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic test --from-beginning

在producer的窗口中输入信息并回车就能在consumer的窗口中收到输入的信息

 

Kafka单机版环境搭建