Zookeeper是一个分布式的开源协调服务,用于管理和维护大型分布式系统中的配置信息、命名服务、状态同步等。它提供了一个可靠的分布式环境,用于协调多个节点之间的通信和管理。
ZooKeeper数据模型的结构与Linux文件系统很类似,整体上可以看作是一棵树,每个节点称做一个ZNode。每一个ZNode默认能够存储1MB的数据,每个ZNode都可以通过其路径唯一标识。
Znode:
路径结构: Znode是ZooKeeper中的基本单元,使用类似文件路径的层次结构(类似于Unix文件系统),由斜杠(/)分隔路径元素。
节点类型: Znodes可以是持久节点(Persistent)或临时节点(Ephemeral)。持久节点在创建后一直存在于ZooKeeper中,而临时节点在创建它的客户端断开连接后被删除。
顺序节点: 还可以创建顺序节点,这些节点在其名称后面附加一个数字序列,以便在创建时自动分配顺序。这有助于客户端在特定路径下创建唯一序列的节点。
数据:
Watches:
配置管理: 存储配置信息,并确保配置在分布式系统中的一致性。
命名服务: 提供唯一标识和发现节点的方式。
分布式锁: 实现互斥访问共享资源。
集群管理: 用于选主、状态同步等分布式系统管理操作。
ZooKeeper的灵活性和可扩展性使其适用于各种分布式系统场景,并且能够有效地管理数据和状态信息,以保持整个分布式系统的一致性和可靠性。
Znode(Zookeeper节点):
Znode结构: 类似于文件系统的目录结构,是Zookeeper中的基本数据单元。
节点类型: 每个Znode可以是持久节点(Persistent)或临时节点(Ephemeral)。持久节点在Zookeeper上创建后一直存在,而临时节点在创建它的客户端断开连接后被删除。
Watcher机制:
概述: Watcher是Zookeeper的一种通知机制,允许客户端订阅Znode上的事件。当Znode上的状态发生变化(如数据改变、节点删除等),Zookeeper将通知那些已经注册Watcher的客户端。
使用场景: Watcher机制广泛用于实现分布式的发布/订阅、分布式锁、集群管理等功能。
分布式锁:
实现原理: 利用Zookeeper的临时顺序节点,客户端在Zookeeper上创建一个带有唯一序号的临时节点,序号越小,节点在队列中排得越前。节点创建成功的客户端获得锁,释放锁时删除对应的节点。
应用场景: 用于在分布式环境下实现互斥访问共享资源,确保数据的一致性。
选主机制(Leader Election):
选主过程: 在Zookeeper集群中,多个节点竞争成为主节点,通过Zookeeper的选主机制实现。一旦某个节点成为主节点,它负责处理写操作,而其他节点是从节点,负责处理读操作。
应用场景: 适用于分布式系统中需要有一个主节点负责协调整个系统的场景,例如Hadoop中的NameNode。
数据一致性:
原子性操作: Zookeeper提供原子性的操作,例如创建节点、更新数据等,确保操作的原子性,要么全部成功,要么全部失败。
顺序一致性: Zookeeper保证在分布式环境下,所有节点看到的数据是一致的。
Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应。也就是说 Zookeeper = 文件系统 + 通知机制。
Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
Zookeepe集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。所以Zookeeper适合安装奇数台服务器
全局数据一致:每个Server保存一份相同的数据副本,Client无论连接到哪个Server,数据都是一致的。
更新请求顺序执行,来自同一个Client的更新请求按其发送顺序依次执行,即先进先出。
数据更新原子性,一次数据更新要么成功,要么失败。
实时性,在一定时间范围内,Client能读到最新数据。
可靠性和稳定性:
Zookeeper通过主从模型和选主机制实现高可用性,即使部分节点失效,仍能保持服务的可用性,确保分布式系统的稳定运行。
高性能:
其设计追求高性能和低延迟,能够快速响应客户端请求,并有效处理大规模的数据操作。
数据模型和Znode:
Zookeeper采用类似文件系统的树形结构来组织数据,称为Znode,通过维护这些节点实现数据存储和状态维护。
Watcher机制:
Watcher机制允许客户端订阅Znode上的事件,当节点状态发生变化时,Zookeeper能够及时通知已注册Watcher的客户端,用于实现事件驱动的分布式架构。
分布式锁:
Zookeeper提供了分布式锁的实现机制,用于在分布式环境下实现互斥访问共享资源,确保数据操作的原子性和一致性。
数据一致性和原子性:
Zookeeper保证在分布式环境下的数据一致性和操作的原子性,所有节点看到的数据是一致的,操作要么全部成功,要么全部失败。
用途广泛:
作为分布式协调服务,Zookeeper被广泛应用于诸如Hadoop、Kafka、HBase等分布式系统中,作为这些系统的重要组件,管理和协调各个部分。
统一命名服务:
问题: 在分布式环境中,应用或服务需要一个统一的命名机制,以便更容易识别。
解决方案: 使用ZooKeeper提供的统一命名服务。将应用或服务的名称映射到ZooKeeper上的特定Znode,实现统一的命名机制。这使得在分布式系统中更容易定位和识别应用或服务。
统一配置管理:
问题: 分布式环境下需要配置信息同步,确保集群中所有节点的配置信息保持一致。
解决方案: 使用ZooKeeper作为统一的配置管理中心。将配置信息写入ZooKeeper上的一个Znode,并让各个客户端服务器监听该Znode。当配置信息发生变化时,ZooKeeper会通知所有监听的客户端服务器,实现配置信息的快速同步。
统一集群管理:
问题: 在分布式环境中,需要实时监控每个节点的状态,以做出相应的调整。
解决方案: 利用ZooKeeper实时监控节点状态变化。将节点信息写入ZooKeeper上的一个Znode,并让各个节点监听该Znode。通过监听实时获取节点状态的变化,可以进行相应的集群管理操作。
服务器动态上下线:
问题: 需要实时感知服务器的上线和下线,以便及时做出调整。
解决方案: 利用ZooKeeper记录每个服务器的状态信息。当服务器上线或下线时,更新对应的Znode。客户端可以监听这些Znodes,从而实时感知服务器的状态变化。
软负载均衡:
问题: 希望实现软负载均衡,将请求分配到访问数最少的服务器上。
解决方案: 在ZooKeeper中记录每台服务器的访问数等负载信息。通过监控这些信息,可以实现动态的软负载均衡策略,确保请求被分配到访问数最少的服务器上,实现更加均衡的系统负载。
ZooKeeper的选举机制是保证在一个ZooKeeper集群中有一个主节点(Leader)的机制。选举机制的目标是确保集群中只有一个活跃的Leader,其他节点作为Followers跟随主节点。以下是ZooKeeper选举机制的主要步骤:
初始化:
选举:
节点提出选举: 在LOOKING状态的节点发起一次选举。它将自己提名为Leader,并向其他节点发送投票请求。
投票阶段: 其他节点收到投票请求后,会检查自己的状态。如果发现自己是LOOKING状态,就投票给发起选举的节点,表示同意它成为Leader。
选票计数: 发起选举的节点等待一定时间,收集其他节点的投票。如果它收到了半数以上的节点的赞成票,那么它将成为新的Leader。
成为Leader:
主节点故障:
主节点故障检测: ZooKeeper集群会周期性地进行主节点是否存活的检测。
主节点失效: 如果集群检测到主节点失效,其他节点将进入新一轮的选举过程。
选举新主节点: 这时其他节点重新发起选举,进行投票过程,选举一个新的主节点。
数据一致性:
选举过程中,ZooKeeper会确保只有一个Leader被选出,以维持系统的一致性。
触发条件:
选举可能被触发的条件包括节点启动、主节点失效、新节点加入等。
第一次启动选举机制的过程如下:
服务器1启动,发起选举,但票数不足半数,状态为LOOKING。
服务器2启动,发起选举,服务器1和2交换选票信息,服务器1发现服务器2的myid更大,更改选票为推举服务器2,但仍未达到半数以上,状态保持LOOKING。
服务器3启动,发起选举,服务器1和2更改选票为服务器3,此时服务器3的票数超过半数,成为Leader,服务器1和2状态变为FOLLOWING,服务器3状态为LEADING。
服务器4和5依次启动,发起选举,根据多数服从的原则,依次更改选票为当前Leader,状态变为FOLLOWING。
Leader选举触发条件:
服务器初始化启动。
服务器在运行期间无法与当前Leader保持连接。
Leader选举流程中的集群状态:
存在Leader的情况:
如果集群中已经存在Leader,当一台机器试图进行Leader选举时,它会被告知当前服务器的Leader信息。
对于这样的机器来说,它只需与现有的Leader建立连接,并进行状态同步,而不需要进行实际的选举过程。
不存在Leader的情况:
选举Leader的规则:
EPOCH大的直接胜出。
如果EPOCH相同,则比较事务id,事务id大的胜出。
如果事务id也相同,则比较服务器id,服务器id大的胜出。
举例说明:假设有5台服务器,SID分别为1、2、3、4、5,ZXID分别为8、8、8、7、7。在某一时刻,服务器3是Leader。如果服务器3和5出现故障,开始进行Leader选举,其他服务器将按照上述规则进行选举,以确定新的Leader。这确保了在ZooKeeper中,Leader的选举是有序和可靠的过程。
SID(服务器ID):
SID用于唯一标识ZooKeeper集群中的每台机器。
每台机器的SID必须是唯一的,而且它与myid(myid是ZooKeeper配置文件中配置的)应该保持一致。
ZXID(事务ID):
ZXID是用来标识一次服务器状态的变更,通常对应于一次事务。
在集群中的每台机器上,ZXID的值不一定完全一致。这是因为不同的机器可能在处理客户端的"更新请求"时,具有不同的处理速度。
ZXID的变更是由ZooKeeper事务引起的,每次状态变更(例如创建、更新、删除节点)都会导致ZXID的增加。
Epoch(每个Leader任期的代号):
Epoch是用来标识每个Leader任期的代号。
当没有Leader时,同一轮投票过程中的逻辑时钟值是相同的。每次投完一次票,Epoch的值就会增加。
Epoch的作用是确保在选举Leader时能够对不同的轮次进行正确的比较,以防止过期的选票对当前轮次的影响。
综合来说,这些标识符(SID、ZXID、Epoch)在ZooKeeper中用于确保分布式环境下的一致性和可靠性,尤其在Leader选举和事务处理方面扮演重要角色。
三台服务器 IP:
192.168.41.31
192.168.41.32
192.168.41.33
安装前准备
在每台服务器上执行以下操作:
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
yum install -shy java-1.8.0-openjdk java-1.8.0-openjdk-devel
java -version
下载 Zookeeper 安装包至 /opt
目录:
cd /opt
wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.7/apache-zookeeper-3.5.7-bin.tar.gz
cd /opt
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin /usr/local/zookeeper-3.5.7
/usr/local/zookeeper-3.5.7/conf/zoo.cfg
,设置参数并添加集群信息。cd /usr/local/zookeeper-3.5.7/conf/
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
tickTime=2000 #通信心跳时间,Zookeeper服务器与客户端心跳时间,单位毫秒
initLimit=10 #Leader和Follower初始连接时能容忍的最多心跳数(tickTime的数量),这里表示为10*2s
syncLimit=5 #Leader和Follower之间同步通信的超时时间,这里表示如果超过5*2s,Leader认为Follwer死掉,并从服务器列表中删除Follwer
dataDir=/usr/local/zookeeper-3.5.7/data ●修改,指定保存Zookeeper中的数据的目录,目录需要单独创建
dataLogDir=/usr/local/zookeeper-3.5.7/logs ●添加,指定存放日志的目录,目录需要单独创建
clientPort=2181 #客户端连:接端口
#添加集群信息
server.1=192.168.41.31:3188:3288
server.2=192.168.41.32:3188:3288
server.3=192.168.41.33:3188:3288
-------------------------------------------------------------------------------------
server.A=B:C:D
●A是一个数字,表示这个是第几号服务器。集群模式下需要在zoo.cfg中dataDir指定的目录下创建一个文件myid,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
●B是这个服务器的地址。
●C是这个服务器Follower与集群中的Leader服务器交换信息的端口。
●D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
//拷贝配置好的 Zookeeper 配置文件到其他机器上
scp /usr/local/zookeeper-3.5.7/conf/zoo.cfg 192.168.10.21:/usr/local/zookeeper-3.5.7/conf/
scp /usr/local/zookeeper-3.5.7/conf/zoo.cfg 192.168.10.22:/usr/local/zookeeper-3.5.7/conf/
myid
文件以标识服务器编号:mkdir /usr/local/zookeeper-3.5.7/data
mkdir /usr/local/zookeeper-3.5.7/logs
echo 1 > /usr/local/zookeeper-3.5.7/data/myid # 对应每个服务器不同的编号
echo 2 > /usr/local/zookeeper-3.5.7/data/myid
echo 3 > /usr/local/zookeeper-3.5.7/data/myid
配置 Zookeeper 启动脚本:
vim /etc/init.d/zookeeper
#!/bin/bash
#chkconfig:2345 20 90
#description:Zookeeper Service Control Script
ZK_HOME='/usr/local/zookeeper-3.5.7'
case $1 in
start)
echo "---------- zookeeper 启动 ------------"
$ZK_HOME/bin/zkServer.sh start
;;
stop)
echo "---------- zookeeper 停止 ------------"
$ZK_HOME/bin/zkServer.sh stop
;;
restart)
echo "---------- zookeeper 重启 ------------"
$ZK_HOME/bin/zkServer.sh restart
;;
status)
echo "---------- zookeeper 状态 ------------"
$ZK_HOME/bin/zkServer.sh status
;;
*)
echo "Usage: $0 {start|stop|restart|status}"
esac
????????在文件中添加启动脚本,包括启动、停止、重启和状态检查。
chmod +x /etc/init.d/zookeeper
chkconfig --add zookeeper
service zookeeper start
service zookeeper status
?
Kafka 是一个开源的分布式流处理平台和消息队列系统,最初由 LinkedIn 开发并于2010年成为 Apache 软件基金会的顶级项目。它的设计目标是处理大规模数据流并提供高吞吐量、持久性、可扩展性和容错性。
Kafka 是一个分布式的基于发布/订阅模式的消息队列(MQ,Message Queue),主要应用于大数据实时处理领域。
主题(Topics):消息的分类名称,数据在 Kafka 中以主题为单位进行发布和订阅。
分区(Partitions):每个主题可以分成多个分区,每个分区是一个有序且不可变的消息序列。
生产者(Producers):负责向 Kafka 主题发布消息的应用程序。
消费者(Consumers):从 Kafka 主题订阅消息并进行处理的应用程序。
代理(Broker):Kafka 集群中的服务器节点,负责存储和管理消息。
副本(Replication):为确保容错性和高可用性,Kafka 将分区的副本存储在多个代理上。
发布 - 订阅模型:生产者发布消息到主题,消费者订阅并从主题拉取消息进行处理。
持久性:Kafka 通过将消息持久化到磁盘,并在配置的时间范围内保留消息,确保消息的可靠性和持久性。
水平扩展性:能够通过增加代理和分区来扩展处理能力,保持高吞吐量和低延迟。
流处理:Kafka Streams API 允许开发者构建流式处理应用,实时处理数据并生成输出。
分布式架构:Kafka 集群由多个代理组成,可在多台服务器上部署,确保容错性和负载均衡。
日志收集与分析:收集分布式系统的日志并进行实时分析和监控。
消息通信:作为微服务架构中的异步通信中介。
事件驱动架构:构建实时流处理应用程序,处理事件流。
指标监控:实时处理和监控大规模指标数据。
高吞吐量和低延迟
Kafka 设计用于处理大规模数据流,并能够以极高的速度进行消息处理。其优化的存储机制和分区策略,以及高效的批量处理方式,使其每秒能够处理大量消息,并且提供非常低的延迟。
Kafka 每秒可以处理几十万条消息,它的延迟最低只有几毫秒。每个 topic 可以分多个 Partition,Consumer Group 对 Partition 进行消费操作,提高负载均衡能力和消费能力。
可扩展性
持久性和可靠性
容错性
Kafka 的分布式架构设计具备高度的容错性。如果集群中的某些节点失效,副本机制可以确保数据的可用性和一致性,即使多个节点失败也不会影响整个集群的运行。
允许集群中节点失败(多副本情况下,若副本数量为 n,则允许 n-1 个节点失败)
高并发性
Kafka 的系统架构是一个分布式、可扩展的架构,主要包括生产者、代理(Broker)、主题(Topic)、分区(Partition)以及消费者等关键组件。以下是 Kafka 的系统架构的详细解释:
生产者(Producer)
生产者负责将消息发布到 Kafka 集群中的主题。消息可以是任何字节类型的有效负载。生产者将消息发布到指定的主题,而 Kafka 负责确保这些消息被持久化并发送到相应的消费者。
代理(Broker)
代理是 Kafka 集群中的服务器节点。每个代理负责存储消息,处理生产者和消费者的请求,并协调分区的复制。代理之间进行协调和通信,形成一个分布式的消息处理系统。
一台 kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker 可以容纳多个 topic。
主题(Topic)
主题是消息的逻辑容器,用于对消息进行分类。生产者将消息发布到特定的主题,而消费者则订阅一个或多个主题以接收相关消息。主题的设计允许将消息按照业务逻辑进行组织和分类。
可以理解为一个队列,生产者和消费者面向的都是一个 topic。 类似于数据库的表名或者 ES 的 index 物理上不同 topic 的消息分开存储
分区(Partition)
每个主题可以分成多个分区,每个分区是一个有序的、不可变的消息序列。分区的引入允许 Kafka 实现水平扩展,提高消息的并行处理能力。每个分区可以在集群中的不同代理上进行复制,以确保容错性和高可用性。
为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分割为一个或多个 partition,每个 partition 是一个有序的队列。Kafka 只保证 partition 内的记录是有序的,而不保证 topic 中不同 partition 的顺序。
每个 topic 至少有一个 partition,当生产者产生数据的时候,会根据分配策略选择分区,然后将消息追加到指定的分区的队列末尾。
消费者(Consumer)
消费者订阅一个或多个主题,并从代理拉取消息进行处理。消费者组织在消费者组中,每个消费者组可以有多个消费者。Kafka 通过分区的机制确保同一分区内的消息只能被同一消费者组的一个消费者处理,从而实现负载均衡和高并发处理。
ZooKeeper
在 Kafka 集群中,ZooKeeper 通常用于协调和管理集群的元数据,例如代理的位置、分区的分配和消费者组的状态。ZooKeeper 的使用帮助 Kafka 集群实现了更强大的分布式协调和管理功能。
生产者发布消息到特定主题。
代理存储并持久化消息,同时根据分区规则将消息分发到不同的分区。
消费者订阅一个或多个主题,并从代理拉取消息。
消费者组中的各个消费者并行处理不同分区的消息。
ZooKeeper 用于协调集群的元数据和状态信息。
指定了 partition: 如果在消息发送时已经指定了特定的 partition,消息将直接被发送到该 partition。
未指定 partition 但指定 key: 如果没有指定 partition 但指定了 key(消息的某个属性),系统会对这个 key 的值进行哈希取模运算,以选定一个 partition。
既未指定 partition 也未指定 key: 这种情况下,会采用轮询(round-robin)的方式选出一个 partition。
消息编号和数据存储
每条消息都有一个自增的编号,用于标识消息的偏移量,从0开始标识顺序。
每个 partition 中的数据使用多个 segment 文件存储。
Partition 数目与消息顺序保证
Broker 存储和集群配置
Broker 存储 topic 的数据。如果某个 topic 有 N 个 partition,集群中有 N 个 broker,每个 broker 存储该 topic 的一个 partition。
如果某个 topic 有 N 个 partition,集群中有 (N+M) 个 broker,其中 N 个 broker 存储 topic 的一个 partition,剩下的 M 个 broker 不存储该 topic 的 partition 数据。
如果某个 topic 有 N 个 partition,但集群中 broker 数目少于 N 个,一个 broker 可能会存储该 topic 的一个或多个 partition。这种情况可能导致 Kafka 集群数据不均衡,因此在生产环境中要尽量避免这种情况。
Partition 的原因
集群扩展: 允许在集群中方便地扩展,每个 Partition 可以根据所在的机器进行调整,从而适应不同大小的数据。
提高并发: Partition 可以作为并发的基本单位,使得可以并行读写,提高了整体的并发处理能力。
Replica(副本)
保障数据不丢失: 为了应对节点故障,每个 Partition 都有若干个副本,其中一个是 Leader,其余是 Follower。
Leader-Follower 模式: Leader负责数据的读写,Follower负责备份。写请求通过Leader路由,变更广播给所有Follower。
选举新的 Leader: 如果Leader故障,系统从Follower中选举新的Leader。
Leader
Follower
Follower 跟随 Leader,所有写请求都通过 Leader 路由,数据变更会广播给所有 Follower,Follower 与 Leader 保持数据同步。Follower 只负责备份,不负责数据的读写。
如果 Leader 故障,则从 Follower 中选举出一个新的 Leader。
当 Follower 挂掉、卡住或者同步太慢,Leader 会把这个 Follower 从 ISR(Leader 维护的一个和 Leader 保持同步的 Follower 集合) 列表中删除,重新创建一个 Follower。
Producer(生产者)
数据发布者: 负责将消息发布到 Kafka 的 Topic 中。
broker 接收到生产者发送的消息后,broker 将该消息追加到当前用于追加数据的 segment 文件中。
Partition 选择: 生产者可以选择将数据存储到指定的 Partition。
Consumer(消费者)
数据拉取: 消费者从 Broker 中拉取数据。
消费多个 Topic: 消费者可以消费多个 Topic 中的数据。
Consumer Group(消费者组)
逻辑订阅者: 消费者组是逻辑上的订阅者,由多个 Consumer 组成。
所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。可为每个消费者指定组名,若不指定组名则属于默认的组。
提高消费能力: 将多个消费者集中处理一个 Topic 的数据,提高消费能力。
分区分配: 每个消费者负责消费不同分区的数据,防止重复消费。
唯一标识消息: 偏移量唯一标识一条消息。
读取位置决定: 决定读取数据的位置,消费者通过偏移量来决定下次读取的消息。
消息不即时删除: 消息被消费后,并不立即删除,可以重复使用。
存储集群 meta 信息: Kafka通过Zookeeper存储集群的元数据信息。
Consumer Offset 管理: 在Kafka 0.9版本之前,Consumer Offset默认保存在Zookeeper中。从0.9版本开始,默认保存在Kafka内置的_consumeroffsets topic中。
生产者和消费者协同: 生产者和消费者都依赖Zookeeper来进行协同,生产者找到Kafka集群节点,而消费者获取消费的Offset信息。
下载安装包
//下载安装包
官方下载地址:http://kafka.apache.org/downloads.html
cd /opt
wget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.7.1/kafka_2.13-2.7.1.tgz
在/opt目录下下载Kafka的安装包,使用清华大学的镜像站点以提高下载速度。
使用wget
命令下载指定版本(2.7.1)的Kafka。
安装 Kafka
cd /opt/
tar zxvf kafka_2.13-2.7.1.tgz
mv kafka_2.13-2.7.1 /usr/local/kafka
//修改配置文件
cd /usr/local/kafka/config/
cp server.properties{,.bak}
vim server.properties
broker.id=0 ●21行,broker的全局唯一编号,每个broker不能重复,因此要在其他机器上配置 broker.id=1、broker.id=2
listeners=PLAINTEXT://192.168.41.31:9092 ●31行,指定监听的IP和端口,如果修改每个broker的IP需区分开来,也可保持默认配置不用修改
num.network.threads=3 #42行,broker 处理网络请求的线程数量,一般情况下不需要去修改
num.io.threads=8 #45行,用来处理磁盘IO的线程数量,数值应该大于硬盘数
socket.send.buffer.bytes=102400 #48行,发送套接字的缓冲区大小
socket.receive.buffer.bytes=102400 #51行,接收套接字的缓冲区大小
socket.request.max.bytes=104857600 #54行,请求套接字的缓冲区大小
log.dirs=/usr/local/kafka/logs #60行,kafka运行日志存放的路径,也是数据存放的路径
num.partitions=1 #65行,topic在当前broker上的默认分区个数,会被topic创建时的指定参数覆盖
num.recovery.threads.per.data.dir=1 #69行,用来恢复和清理data下数据的线程数量
log.retention.hours=168 #103行,segment文件(数据文件)保留的最长时间,单位为小时,默认为7天,超时将被删除
log.segment.bytes=1073741824 #110行,一个segment文件最大的大小,默认为 1G,超出将新建一个新的segment文件
zookeeper.connect=192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181 ●123行,配置连接Zookeeper集群地址
将下载的tar.gz文件解压缩到/usr/local/kafka
目录下。
备份并修改/usr/local/kafka/config/server.properties
配置文件,配置项包括:
broker.id
:设置每个broker的唯一编号。
listeners
:指定监听的IP和端口。
其他网络、IO、缓冲区等相关配置。
log.dirs
:Kafka运行日志和数据存放的路径。
zookeeper.connect
:配置连接Zookeeper集群地址。
修改环境变量
vim /etc/profile
export KAFKA_HOME=/usr/local/kafka
export PATH=$PATH:$KAFKA_HOME/bin
source /etc/profile
修改/etc/profile
文件,添加Kafka的环境变量,包括KAFKA_HOME
和将Kafka的bin
目录添加到PATH
中。
执行source /etc/profile
以使环境变量生效。
配置 Zookeeper 启动脚本
vim /etc/init.d/kafka
#!/bin/bash
#chkconfig:2345 22 88
#description:Kafka Service Control Script
KAFKA_HOME='/usr/local/kafka'
case $1 in
start)
echo "---------- Kafka 启动 ------------"
${KAFKA_HOME}/bin/kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties
;;
stop)
echo "---------- Kafka 停止 ------------"
${KAFKA_HOME}/bin/kafka-server-stop.sh
;;
restart)
$0 stop
$0 start
;;
status)
echo "---------- Kafka 状态 ------------"
count=$(ps -ef | grep kafka | egrep -cv "grep|$$")
if [ "$count" -eq 0 ];then
echo "kafka is not running"
else
echo "kafka is running"
fi
;;
*)
echo "Usage: $0 {start|stop|restart|status}"
esac
创建并编辑/etc/init.d/kafka
文件,定义Kafka的启动、停止、重启和状态检查脚本。
设置脚本的执行权限,并添加到开机启动项。
设置开机自启
chmod +x /etc/init.d/kafka
chkconfig --add kafka
创建并编辑/etc/init.d/kafka
文件,定义Kafka的启动、停止、重启和状态检查脚本。
设置脚本的执行权限,并添加到开机启动项。
分别启动 Kafka
service kafka start
service kafka start
命令启动Kafka。Kafka 命令行操作
//创建topic
kafka-topics.sh --create --zookeeper 192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181 --replication-factor 2 --partitions 3 --topic test
kafka-topics.sh --create --zookeeper 192.168.41.31:2181,192.168.41.33:2181,192.168.41.32:2181 --replication-factor 2 --partitions 3 --topic test
-------------------------------------------------------------------------------------
--zookeeper:定义 zookeeper 集群服务器地址,如果有多个 IP 地址使用逗号分割,一般使用一个 IP 即可
--replication-factor:定义分区副本数,1 代表单副本,建议为 2
--partitions:定义分区数
--topic:定义 topic 名称
-------------------------------------------------------------------------------------
//查看当前服务器中的所有 topic
kafka-topics.sh --list --zookeeper 192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181
//查看某个 topic 的详情
kafka-topics.sh --describe --zookeeper 192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181
//发布消息
kafka-console-producer.sh --broker-list 192.168.41.31:9092,192.168.41.32:9092,192.168.41.33:9092 --topic test
//消费消息
kafka-console-consumer.sh --bootstrap-server 192.168.41.31:9092,192.168.41.32:9092,192.168.41.33:9092 --topic test --from-beginning
-------------------------------------------------------------------------------------
--from-beginning:会把主题中以往所有的数据都读取出来
-------------------------------------------------------------------------------------
//修改分区数
kafka-topics.sh --zookeeper 192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181 --alter --topic test --partitions 6
//删除 topic
kafka-topics.sh --delete --zookeeper 192.168.41.31:2181,192.168.41.32:2181,192.168.41.33:2181 --topic test
使用kafka-topics.sh
命令进行各种操作,如创建topic、查看topic列表、查看topic详情、发布消息、消费消息、修改分区数和删除topic。
提供了每个命令的详细说明和参数解释。
Kafka的配置文件server.properties
中的各项配置需要根据实际需求进行调整,尤其是网络、IO、缓冲区等方面的配置。
确保Zookeeper服务已经启动,并在Kafka配置文件中正确指定Zookeeper集群地址。
启动Kafka前,可以使用chkconfig
命令将其设置为开机自启动。
在使用Kafka命令行操作时,需要提供相应的参数,如Zookeeper地址、topic名称、分区数等。
对于kafka-console-producer.sh
,提供了指定--bootstrap-server
参数的示例,指定Kafka的broker列表。
Filebeat、Kafka 和 ELK(Elasticsearch、Logstash 和 Kibana)是一套常用于日志收集、传输和分析的开源工具组合。
Filebeat 是一个轻量级的日志数据收集器,由 Elastic 公司开发。
它负责监控日志文件或位置,并将数据发送到指定的目标,通常是消息队列或直接到 Elasticsearch。
Kafka 是一个分布式流处理平台,由 Apache 软件基金会开发。
它提供了高可用性、可扩展性和持久性的消息传递系统,通常用于构建实时数据流平台。
在这个场景中,Kafka 充当一个中间层,接收来自 Filebeat 的日志消息并将其传递给 ELK Stack。
ELK 是一个用于日志管理和数据分析的开源软件栈,包括 Elasticsearch、Logstash 和 Kibana。
Elasticsearch: 用于存储、检索和分析日志数据的分布式搜索引擎。
Logstash: 用于日志收集、过滤和转发的数据处理引擎。
Kibana: 用于可视化和分析 Elasticsearch 中存储的日志数据的用户界面。
工作流程:
Filebeat 监控日志文件或位置,收集日志数据。
Filebeat 将日志数据发送到 Kafka 中间件。
Kafka 作为消息队列,接收并持久化日志消息。
Logstash 从 Kafka 中获取日志数据,进行过滤和处理。
Logstash 将处理后的日志数据发送到 Elasticsearch 进行存储。
Kibana 提供用户界面,让用户通过 Web 浏览器可视化和查询 Elasticsearch 中的日志数据。
这样的架构具有高可用性、可伸缩性和灵活性,使得日志数据的采集、传输和分析变得更加容易管理和理解。
在 Kafka 中,消息以 topic
进行分类,生产者生成消息,消费者消费消息,都是基于 topic
的。
topic
是逻辑上的概念,而 partition
是物理上的概念,每个 partition
对应一个 log
文件,其中存储生产者生成的数据。每条数据都有一个唯一的 offset
,表示其在 log
文件中的位置。
消费者组中的每个消费者会实时记录自己消费到的 offset
,以便在出现错误时从上次的位置继续消费。
为了避免 log
文件过大导致数据定位效率低下,Kafka 采用了分片和索引机制,将每个 partition
分为多个 segment
。每个 segment
包括一个 ".index" 文件和一个 ".log" 文件,它们位于以 topic
名称和分区序号命名的文件夹下。
.index
文件存储大量的索引信息,而 .log
文件存储实际的数据。索引文件中的元数据指向对应数据文件中消息的物理偏移地址。为了确保生产者发送的数据可靠地到达指定的 topic
,每个 partition
在接收生产者发送的数据后都需要向生产者发送 ack
(确认收到)。如果生产者收到 ack
,则会进行下一轮的发送,否则将重新发送数据。
LEO(Log End Offset): 指每个副本最大的 offset
。
HW(High Watermark): 指消费者能看到的最大 offset
,即所有副本中最小的 LEO
。
当 follower 发生故障时,它会被临时踢出 ISR(In-Sync Replica,与 leader 保持同步的 follower 集合)。
恢复后,follower读取本地磁盘上记录的上次的 HW
,将高于 HW
的部分截取掉,然后从 HW
开始向 leader 进行同步。
当 follower 的 LEO
大于等于该 Partition
的 HW
时,即 follower追上 leader后,就可以重新加入 ISR。
当 leader 发生故障后,会从 ISR 中选出一个新的 leader。
为确保多个副本之间的数据一致性,其余的 follower 先截掉各自 log
文件高于 HW
的部分,然后从新的 leader 同步数据。
Kafka提供了三种可靠性级别,根据对可靠性和延迟的要求进行权衡选择:
0: 生产者无需等待来自 broker 的确认而继续发送下一批消息,效率最高但可靠性最低。
1(默认配置): 生产者在 ISR 中的 leader 成功收到确认后发送下一条消息,可能在 follower 同步之前发生 leader 故障导致数据丢失。
-1(或 all): 生产者需要等待 ISR 中的所有 follower 都确认接收到数据后才算一次发送完成,可靠性最高。
在 0.11 版本以前的 Kafka,只能保证数据不丢失,在下游消费者需要对数据进行全局去重。在 0.11 及以后版本的 Kafka,引入了幂等性特性,即 Producer 不论向 Server 发送多少次重复数据,Server 端都只会持久化一条。
Zookeeper+Kafka集群的部署:
Zookeeper和Kafka是分布式系统中常用的协调服务和消息中间件。
需要在集群中的节点上部署Zookeeper和Kafka,并确保它们正常运行。
Filebeat的部署:
cd /usr/local/filebeat
vim filebeat.yml
filebeat.prospectors:
- type: log
enabled: true
paths:
- /var/log/httpd/access_log
tags: ["access"]
- type: log
enabled: true
paths:
- /var/log/httpd/error_log
tags: ["error"]
......
#添加输出到 Kafka 的配置
output.kafka:
enabled: true
hosts: ["192.168.41.31:9092","192.168.41.32:9092","192.168.41.33:9092"] #指定 Kafka 集群配置
topic: "httpd" #指定 Kafka 的 topic
#启动 filebeat
./filebeat -e -c filebeat.yml
在/usr/local/filebeat目录下,编辑filebeat.yml文件,配置Filebeat的prospectors,指定要监控的日志文件路径和对应的标签。
添加输出到Kafka的配置,指定Kafka集群的地址和topic。
启动Filebeat,使用命令"./filebeat -e -c filebeat.yml"。
ELK的部署:
cd /etc/logstash/conf.d/
vim kafka.conf
input {
kafka {
bootstrap_servers => "192.168.41.31:9092,192.168.41.32:9092,192.168.41.33:9092" #kafka集群地址
topics => "httpd" #拉取的kafka的指定topic
type => "httpd_kafka" #指定 type 字段
codec => "json" #解析json格式的日志数据
auto_offset_reset => "latest" #拉取最近数据,earliest为从头开始拉取
decorate_events => true #传递给elasticsearch的数据额外增加kafka的属性数据
}
}
output {
if "access" in [tags] {
elasticsearch {
hosts => ["192.168.41.31:9200"]
index => "httpd_access-%{+YYYY.MM.dd}"
}
}
if "error" in [tags] {
elasticsearch {
hosts => ["192.168.41.31:9200"]
index => "httpd_error-%{+YYYY.MM.dd}"
}
}
stdout { codec => rubydebug }
}
#启动 logstash
logstash -f kafka.conf
在Logstash组件所在节点的/etc/logstash/conf.d/目录下,新建Logstash的配置文件kafka.conf。
在kafka.conf中配置Logstash的输入,从Kafka中拉取指定topic的日志数据,设置type字段为"httpd_kafka",使用json格式解析日志数据。
配置输出到Elasticsearch的规则,根据日志的标签(tags)分类存储到不同的索引,并输出调试信息到stdout。
启动Logstash,使用命令"logstash -f kafka.conf"。
注:生产黑屏操作es时查看所有的索引:curl -X GET "localhost:9200/_cat/indices?v"
验证
浏览器访问 http://192.168.41.31:5601 登录 Kibana,单击“Create Index Pattern”按钮添加索引“filebeat_test-*”,单击 “create” 按钮创建,单击 “Discover” 按钮可查看图表信息及日志信息。