程序笔记   发布时间:2022-07-17  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

Kafka

  • 1.Kafka 概述
    • 1.1 什么是消息队列
    • 1.2 为什么需要消息队列(MQ)
    • 1.3 使用消息队列的好处
      • (1)解耦
      • (2)可恢复性
      • (3)缓冲
      • (4)灵活性 & 峰值处理能力
      • (5)异步通信
    • 1.4 消息队列的两种模式
  • 2.Kafka 定义
  • 3.Kafka 简介
  • 4.Kafka 的特性
      • 高吞吐量、低延迟
      • 可扩展性
      • 持久性、可靠性
      • 容错性
      • 高并发
  • 5.Kafka 系统架构
      • (1)Broker
      • (2)Topic
      • (3)Partition
    • 5.1 Partation 数据路由规则
    • 5.2 分区的原因
      • (4)Leader
      • (5)Follower
      • (6)Replica
      • (7)Producer
      • (8)Consumer
      • (9)Consumer Group(CG)
      • (10)offset 偏移量
      • (11)Zookeeper
  • 6.部署 Zookeeper 集群
    • 6.1 部署环境
    • 6.2 安装前准备
    • 6.3 安装JDK
    • 6.4 安装Zookeeper
    • 6.5 修改配置文件
    • 6.6 拷贝配置好的 Zookeeper 配置文件到其他机器上
    • 6.7 在每个节点上创建数据目录和日志目录
    • 6.8 在每个节点的dataDir指定的目录下创建一个myid 的文件
    • 6.9 配置zookeeper 启动脚本
    • 6.10 测试
  • 7.部署Kafka
    • 7.1安装Kafka
    • 7.2 修改配置文件
    • 7.3 修改环境变量
    • 7.4 配置 Kafaka 启动脚本
    • 7.5 设置开机自启和分别启动 Kafka
    • 7.6 Kafka 命令行操作
    • 7.7 查看当前服务器中的所有 topic
    • 7.8 查看某个 topic 的详情
    • 7.9 发布消息
    • 7.10 消费消息
    • 7.11 修改分区数
    • 7.12 删除 topic

1.Kafka 概述

1.1 什么是消息队列

  消息(message)是指在应用之间传送的数据࿰c;消息可以非常简单࿰c;比如只包含文本字符串࿰c;也可以更复杂࿰c;可能包含嵌入对象。   消息队列(message Queue)是一种应用间的通信方式࿰c;消息发送后可以立即返回࿰c;有消息系统来确保信息的可靠专递࿰c;消息发布者只管把消息发布到MQ中而不管谁来取࿰c;消息使用者只管从MQ中取消息而不管谁发布的࿰c;这样发布者和使用者都不用知道对方的存在。

1.2 为什么需要消息队列(MQ)

  主要原因是由于在高并发环境下࿰c;同步请求来不及处理࿰c;请求往往会发生阻塞。比如大量的请求并发访问数据库࿰c;导致行锁表锁࿰c;最后请求线程会堆积过多࿰c;从而触发 too many connection 错误࿰c;引发雪崩效应。   我们使用消息队列࿰c;通过异步处理请求࿰c;从而缓解系统的压力。消息队列常应用于异步处理࿰c;流量削峰࿰c;应用解耦࿰c;消息通讯等场景。

当前比较常见的 MQ 中间件 ActiveMQ、RabbitMQ、RocketMQ、Kafka 等。

1.3 使用消息队列的好处

(1)解耦

  允许你独立的扩展或修改两边的处理过程࿰c;只要确保它们遵守同样的接口约束。

(2)可恢复性

  系统的一部分组件失效时࿰c;不会影响到整个系统。消息队列降低了进程间的耦合度࿰c;所以即使一个处理消息的进程挂掉࿰c;加入队列中的消息仍然可以在系统恢复后被处理。

(3)缓冲

  有助于控制和优化数据流经过系统的速度࿰c;解决生产消息和消费消息的处理速度不一致的情况。

(4)灵活性 & 峰值处理能力

  在访问量剧增的情况下࿰c;应用仍然需要继续发挥作用࿰c;是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力࿰c;而不会因为突发的超负荷的请求而完全崩溃。

(5)异步通信

  很多时候࿰c;用户不想也不需要立即处理消息。消息队列提供了异步处理机制࿰c;允许用户把一个消息放入队列࿰c;但并不立即处理它。想向队列中放入多少消息就放多少࿰c;然后在需要的时候再去处理它们。

1.4 消息队列的两种模式

(1)点对点模式(一对一࿰c;消费者主动拉取数据࿰c;消息收到后消息清除)   消息生产者生产消息发送到消息队列中࿰c;然后消息消费者从消息队列中取出并且消费消息。消息被消费以后࿰c;消息队列中不再有存储࿰c;所以消息消费者不可能消费到已经被消费的消息。消息队列支持存在多个消费者࿰c;但是对一个消息而言࿰c;只会有一个消费者可以消费。

(2)发布/订阅模式(一对多࿰c;又叫观察者模式࿰c;消费者消费数据之后不会清除消息)   消息生产者(发布)将消息发布到 topic 中࿰c;同时有多个消息消费者(订阅)消费该消息。和点对点方式不同࿰c;发布到 topic 的消息会被所有订阅者消费。   发布/订阅模式是定义对象间一种一对多的依赖关系࿰c;使得每当一个对象(目标对象)的状态发生改变࿰c;则所有依赖于它的对象(观察者对象)都会得到通知并自动更新。

2.Kafka 定义

  Kafka 是一个分布式的基于发布/订阅模式的消息队列(MQ࿰c;message Queue)࿰c;主要应用于大数据实时处理领域。

3.Kafka 简介

  Kafka 是最初由 Linkedin 公司开发࿰c;是一个分布式、支持分区的(partition)、多副本的(replica)c;基于 Zookeeper 协调的分布式消息中间件系统c;它的最大的特性就是可以实时的处理大量数据以满足各种需求场景c;比如基于 hadoop 的批处理系统、低延迟的实时系统、Spark/Flink 流式处理引擎࿰c;nginx 访问日志࿰c;消息服务等等࿰c;用 scala 语言编写࿰c;   Linkedin 于 2010 年贡献给了 Apache 基金会并成为顶级开源项目。

4.Kafka 的特性

高吞吐量、低延迟

  Kafka 每秒可以处理几十万条消息࿰c;它的延迟最低只有几毫秒。每个 topic 可以分多个 Partition࿰c;Consumer Group 对 Partition 进行消费操作࿰c;提高负载均衡能力和消费能力。

可扩展性

  kafka 集群支持热扩展

持久性、可靠性

  消息被持久化到本地磁盘࿰c;并且支持数据备份防止数据丢失

容错性

  允许集群中节点失败(多副本情况下࿰c;若副本数量为 n࿰c;则允许 n-1 个节点失败)

高并发

  支持数千个客户端同时读写

5.Kafka 系统架构

(1)Broker

一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker 可以容纳多个 topic。

(2)Topic

  • 可以理解为一个队列࿰c;生产者和消费者面向的都是一个 topic。@H_560_262@
  • 类似于数据库的表名或者 ES 的 index@H_560_262@
  • 物理上不同 topic 的消息分开存储@H_560_262@

(3)Partition

  为了实现扩展性࿰c;一个非常大的 topic 可以分布到多个 broker(即服务器)上࿰c;一个 topic 可以分割为一个或多个 partition࿰c;每个 partition 是一个有序的队列。Kafka 只保证 partition 内的记录是有序的࿰c;而不保证 topic 中不同 partition 的顺序。

  每个 topic 至少有一个 partition࿰c;当生产者产生数据的时候࿰c;会根据分配策略选择分区࿰c;然后将消息追加到指定的分区的队列末尾。

5.1 Partation 数据路由规则

  • 1.指定了 patition࿰c;则直接使用;@H_560_262@
  • 2.未指定 patition 但指定 key(相当于消息中某个属性)࿰c;通过对 key 的 value 进行 hash 取模࿰c;选出一个 patition;@H_560_262@
  • 3.patition 和 key 都未指定࿰c;使用轮询选出一个 patition。@H_560_262@

每条消息都会有一个自增的编号࿰c;用于标识消息的偏移量࿰c;标识顺序从 0 开始。 每个 partition 中的数据使用多个 segment 文件存储。   如果 topic 有多个 partition࿰c;消费数据时就不能保证数据的顺序。严格保证消息的消费顺序的场景下(例如商品秒杀、 抢红包)࿰c;需要将 partition 数目设为 1。

  • broker 存储 topic 的数据。如果某 topic 有 N 个 partition࿰c;集群有 N 个 broker࿰c;那么每个 broker 存储该 topic 的一个 partition。@H_560_262@
  • 如果某 topic 有 N 个 partition࿰c;集群有 (N+M) 个 broker࿰c;那么其中有 N 个 broker 存储 topic 的一个 partition࿰c; 剩下的 M 个 broker 不存储该 topic 的 partition 数据。@H_560_262@
  • 如果某 topic 有 N 个 partition࿰c;集群中 broker 数目少于 N 个࿰c;那么一个 broker 存储该 topic 的一个或多个 partition。在实际生产环境中࿰c;尽量避免这种情况的发生࿰c;这种情况容易导致 Kafka 集群数据不均衡。@H_560_262@

5.2 分区的原因

  • 便在集群中扩展࿰c;每个Partition可以通过调整以适应它所在的机器࿰c;而一个topic又可以有多个Partition组成࿰c;因此整个集群就可以适应任意大小的数据了;@H_560_262@
  • 可以提高并发࿰c;因为可以以Partition为单位读写了。@H_560_262@

(4)Leader

  每个 partition 有多个副本࿰c;其中有且仅有一个作为 Leader࿰c;Leader 是当前负责数据的读写的 partition。

(5)Follower

  Follower 跟随 Leader࿰c;所有写请求都通过 Leader 路由࿰c;数据变更会广播给所有 Follower࿰c;Follower 与 Leader 保持数据同步。Follower 只负责备份࿰c;负责数据的读写。   如果 Leader 故障࿰c;则从 Follower 中选举出一个新的 Leader。   当 Follower 挂掉、卡住或者同步太慢࿰c;Leader 会把这个 Follower 从 ISR(Leader 维护一个和 Leader 保持同步的 Follower 集合) 列表中删除࿰c;重新创建一个 Follower。

(6)Replica

  副本࿰c;为保证集群中的某个节点发生故障时࿰c;该节点上的 partition 数据不丢失c;且 kafka 仍然能够继续工作࿰c;kafka 提供了副本机制࿰c;一个 topic 的每个分区都有若干个副本࿰c;一个 leader 和若干个 follower。

(7)Producer

  生产者即数据的发布者࿰c;该角色将消息发布到 Kafka 的 topic 中。   broker 接收到生产者发送的消息后࿰c;broker 将该消息追加到当前用于追加数据的 segment 文件中。   生产者发送的消息࿰c;存储到一个 partition 中࿰c;生产者也可以指定数据存储的 partition。

(8)Consumer

  消费者可以从 broker 中读取数据。消费者可以消费多个 topic 中的数据。

(9)Consumer Group(CG)

  消费者组࿰c;由多个 consumer 组成。   所有的消费者都属于某个消费者组࿰c;即消费者组是逻辑上的一个订阅者。可为每个消费者指定组名࿰c;若不指定组名则属于默认的组。   将多个消费者集中到一起去处理某一个 Topic 的数据࿰c;可以更快的提高数据的消费能力。   消费者组内每个消费者负责消费不同分区的数据࿰c;一个分区只能由一个组内消费者消费࿰c;防止数据被重复读取。   消费者组之间互不影响。

(10)offset 偏移量

  可以唯一的标识一条消息。   偏移量决定读取数据的位置࿰c;不会有线程安全的问题࿰c;消费者通过偏移量来决定下次读取的消息(即消费位置)。   消息被消费之后࿰c;并不被马上删除࿰c;这样多个业务就可以重复使用 Kafka 的消息。   某一个业务也可以通过修改偏移量达到重新读取消息的目的࿰c;偏移量由用户控制。   消息最终还是会被删除的࿰c;默认生命周期为 1 周(7*24小时)。

(11)Zookeeper

Kafka 通过 Zookeeper 来存储集群的 meta 信息。

由于 consumer 在消费过程中可能会出现断电宕机等故障࿰c;consumer 恢复后࿰c;需要从故障前的位置的继续消费࿰c;所以 consumer 需要实时记录自己消费到了哪个 offset࿰c;便故障恢复后继续消费。 Kafka 0.9 版本之前࿰c;consumer 默认将 offset 保存在 Zookeeper 中;从 0.9 版本开始࿰c;consumer 默认将 offset 保存在 Kafka 一个内置的 topic 中࿰c;该 topic 为 __consumer_offsets。

6.部署 Zookeeper 集群

6.1 部署环境

准备3台服务器做zookeeper集群

192.168.148.136 192.168.148.132 192.168.148.133

6.2 安装前准备

//关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
setenforce o

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.3 安装JDK

yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel
java -version

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.4 安装Zookeeper

cd /opt
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin /usr/local/zookeeper-3.5.7

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.5 修改配置文件

cd /usr/local/zookeeper-3.5.7/conf/
cp zoo_sample.cfg zoo.cfg

vim zoo.cfg
tickTime=2000	#通信心跳时间࿰c;Zookeeper服务器与客户端心跳时间࿰c;单位毫秒
initLimit=10	#Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量)࿰c;这里表示为10*2s
syncLimit=5		#Leader和Follower之间同步通信的超时时间࿰c;这里表示如果超过5*2s࿰c;Leader认为Follwer死掉࿰c;并从服务器列表中删除Follwer
dataDir=/usr/local/zookeeper-3.5.7/data			#修改࿰c;指定保存Zookeeper中的数据的目录࿰c;目录需要单独创建
dataLogDir=/usr/local/zookeeper-3.5.7/logs		#添加࿰c;指定存放日志的目录࿰c;目录需要单独创建
clientPort=2181	#客户端连接端口

#添加集群信息
server.1=192.168.148.136:3188:3288
server.2=192.168.148.132:3188:3288
server.3=192.168.148.133:3188:3288

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

server.A=B:C:D A是一个数字࿰c;表示这个是第几号服务器。集群模式下需要在zoo.cfg中dataDir指定的目录下创建一个文件myid࿰c;这个文件里面有一个数据就是a的值࿰c;Zookeeper启动时读取此文件࿰c;拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。 B是这个服务器的地址。 C是这个服务器Follower与集群中的Leader服务器交换信息的端口。 D是万一集群中的Leader服务器挂了࿰c;需要一个端口来重新进行选举࿰c;选出一个新的l.eader࿰c;而这个端口就是用来执行选举时服务器相互通信的端口。

6.6 拷贝配置好的 Zookeeper 配置文件到其他机器上

scp /usr/local/zookeeper-3.5.7/conf/zoo.cfg 192.168.148.132:/usr/local/zookeeper-3.5.7/conf/
scp /usr/local/zookeeper-3.5.7/conf/zoo.cfg 192.168.148.133:/usr/local/zookeeper-3.5.7/conf/

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.7 在每个节点上创建数据目录和日志目录

@H_997_374@mkdir /usr/local/zookeeper-3.5.7/data
mkdir /usr/local/zookeeper-3.5.7/logs

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.8 在每个节点的dataDir指定的目录下创建一个myid 的文件

echo 1 > /usr/local/zookeeper-3.5.7/data/@H_319_376@myid
echo 2 > /usr/local/zookeeper-3.5.7/data/@H_319_376@myid
echo 3 > /usr/local/zookeeper-3.5.7/data/@H_319_376@myid

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.9 配置zookeeper 启动脚本

vim /etc/init.d/zookeeper
# !/bin/bash
#chkconfig:2345 20 90
#description:Zookeeper @R_673_9260@ce Control Script
ZK_HOME=@H_155_874@'/usr/local/zookeeper-3.5.7'
case $1 in
start)
	echo @H_155_874@"---------- zookeeper启动------------"
$ZK_HOME/bin/zkServer.sh start
; ;
stop)
	echo @H_155_874@"---------- zookeeper 停止-----------"
$ZK_HOME/bin/zkServer.sh stop
;;
restart)
	echo @H_155_874@"---------- zookeeper 重启-----------"
$ZK_HOME/bin/zkServer.sh restart
;;
status)
	echo @H_155_874@"---------- zookeeper状态------------"
$ZK_HOME/bin/zkServer.sh status
;;
*)
	echo @H_155_874@"usage: $0 {start| stop|restart|status }"
esac

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

6.10 测试

设置开机自启

chmod +x /etc/init.d/zookeeper
chkconfig --add zookeeper

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

分别启动Zookeeper

scp /etc/init.d/zookeeper 192.168.148.132:/etc/init.d/
scp /etc/init.d/zookeeper 192.168.148.133:/etc/init.d/

@R_673_9260@ce zookeeper start

查看当前状态

@R_673_9260@ce zookeeper status

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

@H_548_1058@

7.部署Kafka

7.1安装Kafka

cd /opt/
tar zxvf kafka_2.13-2.7.1.tgz
mv kafka_2.13-2.7.1 /usr/local/kafka

7.2 修改配置文件

cd /usr/local/kafka/config/
cp server.properties{,.bak}

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

vim server.properties
broker.id=0    #21行࿰c;broker的全局唯一编号࿰c;每个broker不能重复࿰c;因此要在其他机器上配置 broker.id=1、broker.id=2
listeners=PLAIntexT://192.168.148.136:9092    #31行࿰c;指定监听的IP和端口࿰c;如果修改每个broker的IP需区分开来࿰c;也可保持默认配置不用修改
num.network.threads=3    #42行࿰c;broker 处理网络请求的线程数量࿰c;一般情况下不需要去修改
num.io.threads=8         #45行࿰c;用来处理磁盘IO的线程数量࿰c;数值应该大于硬盘数
socket.send.buffer.bytes=102400       #48行࿰c;发送套接字的缓冲区大小
socket.receive.buffer.bytes=102400    #51行࿰c;接收套接字的缓冲区大小
socket.request.@H_319_376@max.bytes=104857600    #54行࿰c;请求套接字的缓冲区大小
log.dirs=/usr/local/kafka/logs        #60行࿰c;kafka运行日志存放的路径࿰c;也是数据存放的路径
num.partitions=1    #65行࿰c;topic在当前broker上的默认分区个数࿰c;会被topic创建时的指定参数覆盖
num.recovery.threads.per.data.dir=1    #69行࿰c;用来恢复和清理data下数据的线程数量
log.retention.hours=168    #103行࿰c;segment文件(数据文件)保留的最长时间࿰c;单位为小时࿰c;默认为7天࿰c;超时将被删除
log.segment.bytes=1073741824    #110行࿰c;一个segment文件最大的大小࿰c;默认为 1G࿰c;超出将新建一个新的segment文件
zookeeper.connect=192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181  #123行࿰c;配置连接Zookeeper集群地址

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

7.3 修改环境变量

vim /etc/profile
export KAFKA_HOME=/usr/local/kafka
export PATH=$PATH:$KAFKA_HOME/bin


source /etc/profile

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

7.4 配置 Kafaka 启动脚本

vim /etc/init.d/kafka
#!/bin/bash
#chkconfig:2345 22 88
#description:Kafka @R_673_9260@ce Control Script
KAFKA_HOME=@H_155_874@'/usr/local/kafka'
case $1 in
start)
	echo @H_155_874@"---------- Kafka 启动 ------------"
	${KAFKA_HOME}/bin/kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties
;;
stop)
	echo @H_155_874@"---------- Kafka 停止 ------------"
	${KAFKA_HOME}/bin/kafka-server-stop.sh
;;
restart)
	$0 stop
	$0 start
;;
status)
	echo @H_155_874@"---------- Kafka 状态 ------------"
	count=$(ps -ef | grep kafka | egrep -cv @H_155_874@"grep|$$")
	if [ @H_155_874@"$count" -eq 0 ];then
        echo @H_155_874@"kafka is not running"
    else
        echo @H_155_874@"kafka is running"
    fi
;;
*)
    echo @H_155_874@"usage: $0 {start|stop|restart|status}"
esac

7.5 设置开机自启和分别启动 Kafka

chmod +x /etc/init.d/kafka
chkconfig --add kafka

#分别启动 Kafka
@R_673_9260@ce kafka start

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

7.6 Kafka 命令行操作

#创建topic
kafka-topics.sh --create --zookeeper 192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181 --Replication-factor 2 --partitions 3 --topic test

–zookeeper:定义 zookeeper 集群服务器地址࿰c;如果有多个 IP 地址使用逗号分割࿰c;一般使用一个 IP 即可 –Replication-factor:定义分区副本数࿰c;1 代表单副本࿰c;建议为 2 –partitions:定义分区数 –topic:定义 topic 名称


7.7 查看当前服务器中的所有 topic

kafka-topics.sh --list --zookeeper 192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181

7.8 查看某个 topic 的详情

kafka-topics.sh  --describe --zookeeper 192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|

7.9 发布消息

kafka-console-producer.sh --broker-list 192.168.148.136:9092,192.168.148.134:9092,192.168.148.132:9092  --topic test

@H_607_1590@

7.10 消费消息

kafka-console-consumer.sh --bootstrap-server 192.168.148.136:9092,192.168.148.134:9092,192.168.148.132:9092 --topic test --from-beginning

Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|


--from-beginning:会把主题中以往所有的数据都读取出来

7.11 修改分区数

kafka-topics.sh --zookeeper 192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181 --alter --topic test --partitions 6

7.12 删除 topic

kafka-topics.sh --delete --zookeeper 192.168.148.136:2181,192.168.148.132:2181,192.168.148.133:2181--topic test

大佬总结

以上是大佬教程为你收集整理的Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|全部内容,希望文章能够帮你解决Kafka私房菜————|消息队列|Kafka特性|Kafka系统架构|Zookeeper+Kafka集群部署|超详细图解|所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。