`

kafka环境搭建与实战(1)安装kafka

阅读更多
kafka环境搭建与实战(1)安装kafka           http://zilongzilong.iteye.com/blog/2267913
kafka环境搭建与实战(2)kafka API实战       http://zilongzilong.iteye.com/blog/2267924

1.环境介绍

      3台机器IP为:

                      192.168.88.20(hostname=kafka0)

                      192.168.88.21(hostname=kafka1)

                      192.168.88.22(hostname=kafka2) 

2.zookeeper3.4.6集群安装

1) 下载解压zookeeper3.4.6

        下载zookeeper-3.4.6.tar.gz到/opt

        解压tar -zxvf zookeeper-3.4.6.tar.gz

        注意:上面3台机器都要安装

2) 配置/etc/hosts

 

# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1               localhost.localdomain localhost
::1             localhost6.localdomain6 localhost6
192.168.88.22 kafka2
192.168.88.21 kafka1
192.168.88.20 kafka0

    注意:上面3台机器都要配置

 

3) 创建zookeeper数据文件

 

sudo rm -r /home/hadoop/zookeeper
cd  /home/hadoop
mkdir zookeeper

 

    注意:上面3台机器都要创建,我环境中是独立创建了hadoop用户,单独用于启动大数据相关服务,这里也是在hadoop用户目录下创建zookeeper配置文件夹

4) 创建zookeeper数据文件

       将/opt/zookeeper-3.3.4/conf目录下面的 zoo_sample.cfg修改为zoo.cfg,配置文件内容如下所示:

 

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/hadoop/zookeeper
clientPort=2181
server.1=kafka0:2888:3888
server.2=kafka1:2888:3888
server.3=kafka2:2888:3888
#数据文件保存最近的3个快照,默认是都保存,时间长的话会占用很大磁盘空间
autopurge.snapRetainCount=3
#单位为小时,每小时清理一次快照数据
autopurge.purgeInterval=1
 

 

     注意:上面3台机器都要配置

 

5) 创建zookeeper集群节点标识文件myid

 

#在机器kafka0下/home/hadoop/zookeeper/创建文件myid,写入数字1
ssh kafka0
echo "1" > /home/hadoop/zookeeper/myid  
#在机器kafka1下/home/hadoop/zookeeper/创建文件myid,写入数字1
ssh kafka1
echo "2" > /home/hadoop/zookeeper/myid  
#在机器kafka2下/home/hadoop/zookeeper/创建文件myid,写入数字1
ssh kafka2
echo "3" > /home/hadoop/zookeeper/myid  

      注意:上面3台机器都要配置,各自标识必须不相同,并且为整数

 

6) 启动ZooKeeper集群

 

cd /opt/zookeeper-3.4.6
bin/zkServer.sh start  

 

7) 查看单机ZooKeeper是leader还是follower

 

cd /opt/zookeeper-3.4.6
bin/zkServer.sh status 

 

8) 停止ZooKeeper集群

 

cd /opt/zookeeper-3.4.6
bin/zkServer.sh stop 

 

3.kafka_2.10-0.9.0.0集群安装

1) 下载解压kafka_2.10-0.9.0.0.tgz

 

下载kafka_2.10-0.9.0.0.tgz到/opt
解压tar -zxvf kafka_2.10-0.9.0.0.tgz

 注意:上面3台机器都要安装

 

2) 配置kafka各集群节点

修改/opt/kafka_2.10-0.9.0.0/config/server.properties,修改内容如下:

 

#机器kafka0
#每个机器上应该不同,且为数字
broker.id=1
#端口默认保持不变
port=9092  
#本机器的IP地址
host.name=kafka0
#zookeeper的链接地址
zookeeper.connect=kafka0:2181,kafka1:2181,kafka2:2181 
#kafka中每个TOPIC中数据最多只保留当前时间往前推8小时的数据
log.retention.hours=8
#kafka中每个TOPIC切分为4份,分布式存贮到集群节点,这个是默认值,可以创建TOPIC时单独指定
num.partitions=4
#kafka中每个TOPIC数据存储的目录位置
log.dirs=/tmp/kafka-logs
#启用对于TOPIC的删除功能
delete.topic.enable = true

 

#机器kafka2
#每个机器上应该不同,且为数字
broker.id=2
#端口默认保持不变
port=9092  
#本机器的IP地址
host.name=kafka2
#zookeeper的链接地址
zookeeper.connect=kafka0:2181,kafka1:2181,kafka2:2181 
#kafka中每个TOPIC中数据最多只保留当前时间往前推8小时的数据
log.retention.hours=8
#kafka中每个TOPIC切分为4份,分布式存贮到集群节点,这个是默认值,可以创建TOPIC时单独指定
num.partitions=4
#kafka中每个TOPIC数据存储的目录位置
log.dirs=/tmp/kafka-logs
#启用对于TOPIC的删除功能
delete.topic.enable = true

 

#机器kafka1
#每个机器上应该不同,且为数字
broker.id=3
#端口默认保持不变
port=9092  
#本机器的IP地址
host.name=kafka1
#zookeeper的链接地址
zookeeper.connect=kafka0:2181,kafka1:2181,kafka2:2181 
#kafka中每个TOPIC中数据最多只保留当前时间往前推8小时的数据
log.retention.hours=8
#kafka中每个TOPIC切分为4份,分布式存贮到集群节点,这个是默认值,可以创建TOPIC时单独指定
num.partitions=4
#kafka中每个TOPIC数据存储的目录位置
log.dirs=/tmp/kafka-logs
#启用对于TOPIC的删除功能
delete.topic.enable = true

 

 

3) 启动kafka,关闭kafka

 

#后台进程启动kafka
/opt/kafka_2.10-0.9.0.0/bin/kafka-server-start.sh /opt/kafka_2.10-0.9.0.0/config/server.properties &
#console启动kafka
/opt/kafka_2.10-0.9.0.0/bin/kafka-server-start.sh /opt/kafka_2.10-0.9.0.0/config/server.properties
#关闭kafka,先通过jps查看进程号后kill - 9 进程号

 

 

4) 在kafka中创建名为“test”的topic,该topic切分为4份,每一份备份数为3

 

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 4 --topic  test

 

 

5) 在kafka中查看名为“test”的topic

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-topics.sh --describe --zookeeper kafka0:2181,kafka1:2181,kafka2:2181 --topic test

 

6) 在kafka中列出所有topic

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-topics.sh --list --zookeeper kafka0:2181,kafka1:2181,kafka2:2181

 

7) 在kafka中删除名为“test”的topic

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-topics.sh --delete --zookeeper kafka0:2181,kafka1:2181,kafka2:2181 --topic test

 

8) 在kafka中通过console启动一个消费者用来消费来自topic=test里面的数据

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-console-consumer.sh --zookeeper kafka0:2181,kafka1:2181,kafka2:2181 --topic test --from-beginning

 

9) 在kafka中通过console启动一个生产者用来产生数据放入topic=test

cd /opt/kafka_2.10-0.9.0.0
bin/kafka-console-producer.sh --broker-list kafka0:9092,kafka1:9092,kafka2:9092 --topic test

 

分享到:
评论

相关推荐

    Kafka集群调优实战+分布式集群搭建-视频教程网盘链接提取码下载 .txt

    课程内容包括了Kafka java Consumer实战,Kafka集成框架,Kafka分布式集群架构,Kafka性能测试实战,Kafka集群监控实战,Kafka用户行为画像,Kafka性能存储优化及如何提高Kafka吞吐量等企业级技术。 视频大小:1.5G

    Kafka集群调优实战+分布式集群搭建

    Kafka技术实战学习的优选课程,课程内容全程实战,没有拖泥带水,但不包含基础知识的教学,需要同学们先具备一定的Kafka技术基础再进行学习。课程内容包括了Kafka java Consumer实战,Kafka集成框架等。

    Apache Kafka实战.pdf--有新特性的介绍-强烈推荐

    《Apache Kafka实战》共分为10章:第1章全面介绍消息引擎系统以及Kafka的基本概念与特性,快速带领读者走进Kafka的世界;第2章简要回顾了Apache Kafka的发展历史;第3章详细介绍了Kafka集群环境的搭建;第4、5章深入...

    kafka搭建套装.zip

    20200326这里存放的是今日我搭建kafka过程中使用到的套装文件,可以直接下载使用的,完整的搭建实战与环境配置问题解决

    Kafka快速实战与基本原理详解:从零到精通

    首先介绍了Kafka的核心概念,如Broker、Topic、Producer、Consumer等,随后详细阐述了Kafka的安装步骤、配置过程以及其与Zookeeper的交互。通过对Kafka生产者和消费者的代码示例分析,文档展示了消息的发送和接收...

    Spark-Streaming+Kafka+mysql实战示例

    示例涵盖了从环境搭建到代码实现的全过程,帮助您快速上手实时数据处理的开发。提供了一个完整的示例,演示了如何使用Spark Streaming和Kafka进行实时数据处理。通过该示例,我们可以学习到如何创建Kafka主题、发送...

    Docker 实战(四) 搭建 kafka集群

    Kafka搭建 kafka是一个分布式的数据库,所以需要zookeeper作为集群的头部 kafka使用广泛,在大数据处理与分析中作用很大,接下来是根据dockerHub上已有的kafka镜像进行搭建的 资料来源 使用 wurstmeister/zookeeper ...

    Storm流计算项目:1号店电商实时数据分析系统-08.storm-kafka 详解和实战案例.pptx

    02.CDH5搭建之CM5安装部署 03.CDH5搭建和CM界面化集群管理 04.Hadoop、HBase、Zookeeper集群管理和角色分配 05.Kafka基础知识和集群搭建 06.Kafka基本操作和最优设置 07.Kafka Java API 简单开发测试 08.storm-kafka...

    Kafka多维度系统精讲,从入门到熟练掌握

    Kafka多维度系统精讲,从入门到...本课从搭建开始,全面剖析Kafka,解读和使用核心API,将底层实现和设计原理融合贯穿,同时结合案例,把原理落地。更有凝结老师心血的Kafka最佳配置方式推荐,以及面试常问知识点梳理。

    Kafka大数据实战

    讲解消息队列的作用及kafka的基本概念及特性,包括kafka的环境搭建,Kafka常见面试问题,Kafka的shell操作,Kafka工作原理,实战将所学的知识点应用到java小项目中;包括消息的产生、数据的存储、数据的消费、kafka...

    大数据分布式集群环境搭建.docx

    centos大数据分布式集群搭建,包含hadoop spark hbase hive solr elasticsearch redis zookeeper rocketmq mongodb mariadb storm kafka docker

    实时处理.rar

    第5章 实战环境搭建工欲善其事必先利其器 第6章 Spark Streaming入门 第7章 Spark Streaming核心概念与编程 第8章 Spark Streaming进阶与案例实战 第9章 Spark Streaming整合Flume 第10章 Spark Streaming整合Kafka ...

    Storm流计算项目:1号店电商实时数据分析系统-07.Kafka Java API 简单开发测试.pptx

    02.CDH5搭建之CM5安装部署 03.CDH5搭建和CM界面化集群管理 04.Hadoop、HBase、Zookeeper集群管理和角色分配 05.Kafka基础知识和集群搭建 06.Kafka基本操作和最优设置 07.Kafka Java API 简单开发测试 08.storm-kafka...

    Hadoop+Spark生态系统操作与实战指南.epub

     全书共12章,大致分为3个部分,第1部分(第1~7章)讲解Hadoop的原生态组件,包括Hadoop、ZooKeeper、HBase、Hive环境搭建与安装,以及介绍MapReduce、HDFS、ZooKeeper、HBase、Hive原理和Apache版本环境下实战操作...

    Kafka原理、集群、监控企业实战

    本课程详细讲解原理,以及集群搭建,使用Python/Java操作Kafka、并采用Prometheus监控Kafka,结合Grafana绘制出Kafka的监控大盘。 之前有报名过 《ELK/ELFK企业PB级日志系统实战》的同学建议学习本门课程 温馨提示...

    大数据Spark企业级实战

    《大数据Spark企业级实战》详细解析了企业级Spark开发所需的几乎所有技术内容,涵盖Spark的架构设计、Spark的集群搭建、Spark内核的解析、Spark SQL、MLLib、GraphX、Spark Streaming、Tachyon、SparkR、Spark多语言...

    Golang mk教程-Go语言视频零基础入门到精通项目实战web编程

    第01天-基础-基本概念、环境搭建、第一个Go程序 第02天-基础-包、函数、常量、数据类型、字符操作 第03天-基础-作业讲解、流程控制、函数详解 第04天-基础-闭包、数组、切片、锁机制 第05天-进阶-排序、链表、二叉树...

Global site tag (gtag.js) - Google Analytics